迁移学习领域自适应:具有类间差异的联合概率最大平均差异

栏目: IT技术 · 发布时间: 4年前

内容简介:©PaperWeekly 原创 · 作者|张玮玮学校|东北大学硕士生

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

©PaperWeekly 原创 · 作者|张玮玮

学校|东北大学硕士生

研究方向|情感识别

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

论文标题: Discriminative Joint Probability Maximum Mean Discrepancy (DJP-MMD) for Domain Adaptation

论文链接: https://arxiv.org/abs/1912.00320

代码链接: https://github.com/chamwen/JPDA

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

领域适应(DA),或迁移学习,通过将知识从标记的源域转移到新的未标记或部分标记的目标域,广泛应用于图像分类、情绪识别、脑机接口等。 传统的 DA 方法遵循这个假设,即主要使用一些度量方法来分别度量边际概率或条件概率分布。 然而,联合概率分布可以更好地测量两个域的分布差异。

为了方便利用 DA 方法,在特征转换时需要考虑两个方面:1)可迁移性,它最小化了同一类在不同域之间的差异;2)区分性,它最大限度地扩大了不同域的不同类之间的差异,从而使不同的类更容易区分。

传统的 DA 方法只考虑可迁移性,而忽略了类内可区分性。作者直接考虑了源域和目标域具有不同的联合概率分布的情况, 提出了具有类间差异的联合概率最大平均差异。

通过直接考虑联合概率分布的差异,作者提出了一种用于分布适应的具有类间差异的联合概率 MMD ( discriminative  joint probability MMD, DJP-MMD)。

它同时最小化了同一类不同域之间的联合概率分布差异以获得可迁移性,最大化了不同域之间的联合概率分布差异以获得可识别性。还可以很容易地将 DJP-MMD 用于考虑不同域之间的非线性转移。

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

DJP-MMD知识基础

1.1 传统MMD方法

在传统的 DA 方法中,经常使用 MMD 来度量源域和目标域之间的分布差异。一个分布差异完全是由它的联合概率 来描述的,它可以被 或  等价地计算出来。

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

上式需要两步才能被近似计算出来。

条件分布差异是:

边缘分布差异是:

 表示子空间样本的期望。

引入一个非线性映射 ,MMD 距离可以写成如下式:

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

当 是 TCA 方法,是 JDA 方法,是 BDA。因此,这些传统的 DA  方法是基于边际和条件的权值完成 MMDs 近似联合概率分布。

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

论文方法

2. 1 DJP-MMD

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

上图将传统的联合 MMD 提出的 DJP-MMD 进行了比较,从图中可以看出,DJP-MMD 使来自不同域的同一个类更加一致,使不同的类更加分离,便于分类。

联合概率差异可以定义为:

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

,表示两个领域之间的类内差异与类间差异。

因此具有差异的联合概率差异可以定义为:,其中 可以表示为:

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

迁移学习领域自适应:具有类间差异的联合概率最大平均差异 可以 表示为:

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

同样 表示为:

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

作者将其嵌入到一个非监督联合概率 DA (JPDA) 框架中,该框架具有一个正则化项和一个主成分保留约束。整体优化函数需要将式中的最小化,即,求解最优线性映射:

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

其中,,,是中心矩阵。

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

2 .2 JPDA优化

让  ,可以得到拉格朗日函数 :

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

通过设置 ,成为一个广义的特征分解问题 :

2 .3 JPDA伪代码

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

结果

为了评估本文方法的性能,作者在 Offifice+Caltech 、COIL 、Multi-PIE 、USPS 、MNIST 数据集进行了实验,将所提出的 JPDA 与三种无监督 DA 方法(TCA、JDA和BDA)进行比较 。实验结果与 t-SNE 数据分布结果如下图。

JPDA 在大部分任务中都优于 3 个基线实验,平均性能也最好,这说明 JPDA 在跨域视觉适应中可以获得更强的可迁移性和更强的鉴别特征映射。

t-SNE 数据分布图中,Raw 表示原始数据分布。对于原始分布,来自源域和目标域的类 1 和类 3(也有一些来自类 2)的样本混合在一起。在 DA 之后,JPDA 将源域和目标域的数据分布放在一起,并将来自不同类的样本很好地分隔开。

从柱形图上看,JP-MMD 优于联合 MMD,而 DJP-MMD 进一步考虑了可分辨性,获得了最好的分类性能。

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

结论

本文提出了一种简单而有效的 DJP-MMD 方法。通过最小化源域和目标域(即,提高域可转移性),最大限度地提高不同类的联合概率 MMD(即,增加类的辨别力)。

与传统的基于 MMD 的方法相比,JPDA 更简单、更有效地测量了不同领域之间的差异。在 6 个图像分类数据集上的实验验证了 JPDA 的优越性。

:mag:

现在,在 「知乎」 也能找到我们了

进入知乎首页搜索 「PaperWeekly」

点击 「关注」 订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击 「交流群」 ,小助手将把你带入 PaperWeekly 的交流群里。

迁移学习领域自适应:具有类间差异的联合概率最大平均差异

迁移学习领域自适应:具有类间差异的联合概率最大平均差异


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

网络共和国

网络共和国

[美] 凯斯·桑斯坦 / 黄维明 / 上海人民出版社 / 2003-6-1 / 15.00元

本书主要讨论网络中的民主问题。网络技术已经深刻地影响了我们的生活,我们随时可以获得我们需要的信息,我们也随时可以与别人联系,那么网络技术是不是就是民主的福音呢?作者回答说不,他认为通过网络人们更容易获得的是自己喜欢的信息,而拒绝接受自己不喜欢的信息,事实上人们得到的是窄化的信息,很多的网站也不和与自己立场相反的网站链接。而在一个真正的民主的环境中,信息应是多元的并且不是我们事先选择的,在其中我们还......一起来看看 《网络共和国》 这本书的介绍吧!

JSON 在线解析
JSON 在线解析

在线 JSON 格式化工具

RGB HSV 转换
RGB HSV 转换

RGB HSV 互转工具

RGB CMYK 转换工具
RGB CMYK 转换工具

RGB CMYK 互转工具