Motivation
- 考虑语义信息,在弱监督信息中尽可能挖掘有效信息;
- 一种更贴近实际的实验设定;
- 在更为精确的数据集上时(标注成本较高,比如为CUB200种鸟类标注,需要很高的专业知识水平,此时应用CLL),反标记监督信息更为有用:
e.g. 鸟类识别任务:给定一张鸟类图片:1.被告知不是汽车,2.被告知不是麻雀。显然2的信息更有用,更符合CLL问题初衷。
Semantic information
- related work:
- 模糊度
Progressive Identification of True Labels for Partial-Label Learning
- 零样本学习
语义信息作为类原型,寻找合适映射
- 插入属性空间S
- An embarrassingly simple approach to zero-shot learning*
-
SAE(semantic automatic encoder)
-
【!】DeViSe
(感觉可以尝试!将hinge rank loss 反过来排序)
Data
- original setting
除去真实标签,等概率抽取反标签 - new setting(先搁置,首先根据其他文献的original setting得到的数据集做,便于比较、有说服力)
除去真实标签,考虑语义距离地抽取反标签
Loss functions
- Idea
选取:
a) 常量,通过试验确定
b) 变量
c) 分段函数,引入阈值
(当预测类别标签与给定反标签距离很小时应该比较敏感)
(MCLL :)
将距离函数作为一个置信度,预测标签与反标签距离越小置信度越低- 放弃以上损失框架(或者也是加和),hinge rank loss中将向量相似度换为距离函数?
- Related work
- 非对称结构 (PLL):
系数 选取:离散 连续(PLL)
- 类似的 (CLL):
Model
- 普通CNN模型
- GAN
目前只有一篇代码可用 TAC-GAN
文章出处登录后可见!
已经登录?立即刷新