泛览天下

阅读,看尽天下事

干货!基于元消歧的偏多标记学习

2022-01-11 06:16:49


本期AI TIME PhD直播间我们邀请到南京航天航空大学计算机系博士生——谢明昆,为我们带来报告《基于元消歧的偏多标记学习》。


在偏多标记学习中,每一个示例与一个候选标记集相关,该候选集既包含多个真实标记,也包含其它噪声标记。为了解决偏多标记学习问题,现有方法往往基于对数据结构的额外假设来对候选标记集合进行消歧。然而,在实际任务中,这些假设通常难以成立,导致学得模型难以泛化到不同偏多标记分类任务中。本文提出了一种基于元消歧的偏多标记学习方法。与以往工作基于额外假设不同,我们首次引入元学习的方法来对候选标记进行消歧。一方面,通过最小化基于置信度加权的排序损失来学习个多标记分类器;另一方面,根据候选标记在少量验证集样本上的性能来自适应地估计其置信度。为了提高优化速率,我们提出使用在线优化策略来迭代地更新这两个步骤。在不同数据集上大量的实验证明了提出方法的有效性。


本期AI TIME PhD直播间我们邀请到南京航天航空大学计算机系博士生——谢明昆,为我们带来报告《基于元消歧的偏多标记学习》。


谢明昆:南京航空航天大学计算机专业一年级在读博士生,导师为黄圣君教授。主要研究方向为机器学习和数据挖掘,包括弱监督学习,多标记学习等。以第一作者在包括TPAMI, NeurIPS, KDD, AAAI等国际期刊和会议上发表多篇论文。


01

背 景


(1) 什么是多标记学习?

常规的监督学习,每个示例只有一个真实标记,而在多标记学习中,每个示例同时与多个标记相关。

干货!基于元消歧的偏多标记学习


(2) 多标记学习的难点

对于单标记学习,比如下面左图,我们可以很容易给出“Dog”标签;但对于多标记学习,我们很难给出一张图的所有标记,比如下面右图给出的标记有蓝天,白云,树,但还有海滩,岛屿等一些没能给出的。因此多标记学习中,获取每张图片所有可能标记是比较困难的。所以多标记学习中一个关键的问题是如何显著降低图片标注难度,从而降低图片标注代价。


干货!基于元消歧的偏多标记学习


一种有效的解决方案是偏标注,即从众包平台上收集许多标注者对一张图片的标注,这些标注的并集构成候选标记集合。如下图左边的例子,候选标记集合既包含像窗户,自行车等相关标记,也包含人,花等无关标记。

干货!基于元消歧的偏多标记学习


基于候选标记集合的样本进行学习称为偏多标记学习,具体任务是要学习一个分类器。每个样本都对应一个候选标记集合,采用偏多标记学习算法(PML)对这些样本学习,从而得到多标记模型(MLL),多标记模型在遇到新样本时可以预测出样本的所有可能的相关标记。


为了更好地辨别理解偏多标记学习算法,我们介绍几个与偏多标记相关的学习框架。多标记学习(MLL)是给定样本所有相关标记进行学习;偏标记学习是给定每一个示例一个候选标记集,该集合中有且仅有一个真实标记;弱标记学习(MLML)是给定的样本只有部分相关标记;偏多标记学习(PML)是给定每一个示例一个候选标记集,该集合中既包含多个真实标记,也包含其它无关标记。


干货!基于元消歧的偏多标记学习


目前主流的偏多标记学习方法是基于消歧,每个候选标记都有置信度,根据额外的假设估计置信度。但在实际问题中,这些假设很多都不成立。因此,本文提出一种元消歧的方法,通过元学习的方式估计置信度。


02

方 法


本文提出基于元消歧的偏多标记算法(PML-MD)来解决偏多标记分类问题。PML-MD在偏多标记候选集上采用带置信度的排序损失,在给候选集排序时,不仅考虑候选集是否与样本相关,还考虑候选集中标记的置信度。比如下图例子中,“people”、“flower”等候选集中的无关标记虽然排在了非候选集中“dog”标记之前,但也是以一个较低的置信度排在“dog”之前的。


干货!基于元消歧的偏多标记学习


下面介绍PML-MD方法是如何估计标记置信度的。我们根据元消歧的方式估计置信度ρ,核心思想是根据ρ在验证集上到表现为指导更新置信度,损失函数如下图所示。更新策略采用迭代优化的方式,首先固定置信度ρ,然后最小化训练损失,得到最优的模型参数θ;然后固定模型参数θ,最小化验证集上的元消歧损失,得到最优置信度ρ。


干货!基于元消歧的偏多标记学习


由于θ往往是神经网络的参数,因此更新复杂度较高,故本文提出一种在线近似优化机制,核心思想是采用一步梯度下降逼近上述优化过程。具体实现如下:


干货!基于元消歧的偏多标记学习


03

实 验


提出的方法:

PML-MD:验证集仅用于消歧。

PML-MD+:验证集用于消歧和训练。

数据集:采用8个多标记数据集,以一个概率将无关标记翻转为候选标记的方式来构建偏多标记数据集。包括两种翻转噪声水平,high-level label noise的反转概率有[0.5,0.6,0.7,0.8], low-level label noise的反转概率有[0.2,0.3,0.4,0.5]。


干货!基于元消歧的偏多标记学习


Baseline:

① PML-NI[Xie & Huang, TPAMI’21],

② PML-LRS [Sun et al., AAAI’19],

③ fPML [Yu et al., ICDM’18],

④ PARMAP

⑤ PARVLS[Zhang et al., TPAMI’20


评价指标:

◦ Hamming Loss, Ranking Loss, One Error, Coverage ↓

◦ Average Precision ↑


实验结果:

下面给出对比不同方法在不同数据集上的实验结果,加黑点表示我们的方法能显著优于该对比方法。本文提出的PML-MD在多个实验样例上都有很优秀的性能表现。

(1)low-level label noise数据集的实验结果

干货!基于元消歧的偏多标记学习


(2)high-level label noise的实验结果


干货!基于元消歧的偏多标记学习


(3)真实数据集的实验结果


干货!基于元消歧的偏多标记学习