本周NLP、CV、机器学习论文精选推荐

栏目: 数据库 · 发布时间: 6年前

内容简介:#Sequence to Sequence Learning

本周NLP、CV、机器学习论文精选推荐

@paperweekly 推荐

#Knowledge Graph

本文是新加坡国立大学和 eBay 发表于 AAAI 2019 的工作, 论文提出了一种基于循环神经网络的推荐模型,对用户和物品之间的交互特征在知识图谱中存在的关联路径进行建模,为用户提供可解释性推荐。

该模型基于 LSTM 学习关联路径的表示,充分考虑了实体、关系间产生的序列依赖性,具备较强的推理能力。实验表明,本文模型在电影数据集 MI 和音乐数据集 KKBox 上取得了当前最优结果。

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐 本周NLP、CV、机器学习论文精选推荐

论文链接: https://www.paperweekly.site/papers/2644

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐 @zkt18 推荐

#Sequence to Sequence Learning

本文是北京大学和微软发表于 AAAI 2019 的工作。最大似然估计常被用作评估 Seq2Seq 生成序列的效果,根据实证研究,作者认为非平滑方法往往效果较差。

本文提出了一种句子正则化方法,为目标序列中的所有 token 输出平滑的预测概率。 在三个神经机器翻译任务和一个文本摘要任务上的实验表明,本文效果超出传统MLE,每个token概率越平滑,BLEU分数越高。

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@zkt18 推荐

#Contextual Augmentation

本文来自中国科学院大学。传统 GAN 与 VAE 生成句子在一致性与可读性方面难以保证质量,近年基于词语替换的方法取得了成功。

BERT使用 Masked Language Model(MLM)任务来预训练,MLM 任务是利用上下文的填空任务(cloze)。这个任务和短文本的语境增强(Contextual Augmentation,使用语言模型来预测并替换句子中的部分词,生成新句子)任务非常贴近。

预训练好的BERT模型, 可以通过 MLM 任务来实现语境增强。 对于有类别标签的短文本,为了使预测出的替换词和原标签兼容,本文提出一个 Conditional MLM 的 fine-tuning 任务。

BERT输入中的 Segmentation Embeddings 被替换成 Label Embeddings,在下游目标任务数据集上训练 Conditional MLM 任务,得到 ConditionalBERT。将 ConditionalBERT应用于语境增强,对 6 个短文本分类数据集进行文本增强,都得到了分类效果的明显提升。

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@guohao916推荐

#Machine Reading Comprehension

本文来自约翰霍普金斯大学和微软, 论文发布了一个带有常识性推理的机器阅读理解数据集。 实验结果表明目前的最新阅读理解模型在该数据集上的结果显著弱于人工评估结果。ReCoRD 数据集为研究如何缩小人与机器之间对于常识推理的理解提供了机会。

本周NLP、CV、机器学习论文精选推荐

数据集链接: https://sheng-z.github.io/ReCoRD-explorer/ 本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@Zsank 推荐

#Neural Language Model

本文来自斯坦福大学 Andrew Ng 团队。数据增强作为一种能够显著提升模型性能的方法,已经在 CV 领域证明了其有效性,但鲜有用于 NLP 领域中。在 NLP 领域,正则化一般是对权重(如 L2正则化)或者隐层单元(如 dropout)进行处理的,而不是直接对数据本身。

在本文中,作者证明了神经语言模型中,对数据施加噪声相当于n-gram的插值平滑,能够提升神经语言模型的性能。 BERT也是用了神经语言模型,并且训练时使用了 Mask 方法。而 Mask 方法为什么有效正是这篇论文的一个重点。虽然两者方法不同,但也可以作为BERT的扩展阅读。况且,就凭该论文的作者们的名字也值得一看。

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐 本周NLP、CV、机器学习论文精选推荐

论文链接: https://www.paperweekly.site/papers/2641

源码链接: https://github.com/stanfordmlgroup/nlm-noising

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@zkt18 推荐

#Text Classification

本文是杜克大学发表于 ACL 2018 的工作。 作者将文本分类看作 words and labels joint embedding:每一 label 嵌入到词向量的同一位置。使用 attention 训练,确保对于一个文本序列,相关词的权重比非相关词高。 Word Embedding 效果对于提高任务准确率十分重要,重点在于如何使用 label 信息构建文本序列表示。

NLP 任务通常有三步操作,embed->encode->predict。本文在 embed 中加入 label 信息,在 encode 中使用关于 word 和 label 的注意力,简单模型即可取得先进结果。

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@darksoul 推荐

#Object Detection

本文是香港中文大学发表于 AAAI 2019 的工作, 文章从梯度的角度解决样本中常见的正负样本不均衡的问题。 从梯度的角度给计算 loss 的样本加权,相比与 OHEM 的硬截断,这种思路和 Focal Loss 一样属于软截断。

文章设计的思路不仅可以用于分类 loss 改进,对回归 loss 也很容易进行嵌入。 不需要考虑 Focal Loss 的超参设计问题,同时文章提出的方法效果比 Focal Loss 更好。 创新点相当于 FL 的下一步方案,给出了解决 class-imbalance 的另一种思路,开了一条路,估计下一步会有很多这方面的 paper 出现。

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐 本周NLP、CV、机器学习论文精选推荐

论文链接: https://www.paperweekly.site/papers/2654

源码链接: https://github.com/libuyu/GHM_Detection

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@wangshy 推荐

#Video Object Detection

本文是清华大学和商汤科技发表于 ECCV 2018 的工作。 在视频物体检测任务中,作者提出了一种关注运动信息(Fully Motion-Aware Network:MANet)的端到端模型,它在统一的框架中同时进行像素级和实例级的特征对准来提高检测精度。

像素级校准可灵活地建模细节运动,而实例级校准更多地捕捉物体整体运动信息,以便对遮挡具有鲁棒性。实验表明,本文模型在ImageNet VID数据集上达到了领先的精度。

源码链接: https://github.com/wangshy31/MANet_for_Video_Object_Detection

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@pyy 推荐

#Data Augmentation

本文来自神户大学, 论文提出了一种基于随机图像裁剪和修补的图像预处理方法 RICAP,随机裁剪四个图像并对其进行修补以创建新的训练图像。 该方法非常简单实用,把几张图拼在一起,然后 label 就是这几张图类别占图片大小的比率。实验表明,本文方法在 CIFAR-10 数据集上实现了 2.19% 的测试误差。

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐 本周NLP、CV、机器学习论文精选推荐

论文链接: https://www.paperweekly.site/papers/2645

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@Kralkatorrik 推荐

#Image Classification

本文是清华大学和 UIUC 发表于 CVPR 2018 的工作。 这篇文章假定数据样本在特征空间服从高斯混合分布,使用 Gaussian Mixture 代替 Softmax 做概率表示,用交叉熵损失来做优化。 除此之外,遵循约束类内距离增加类间距离的思想,引入 L_likehood 损失,并在 GM 中增加 margin,构成了最终的 LGM Loss。

源码链接: https://github.com/WeitaoVan/L-GM-loss

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐 @paperweekly 推荐

#Human Pose Estimation

本文来自电子科技大学和 Vision Semantics。现有的人体姿态估计方法通常更侧重于设计网络学习更适合的特征,从而使得定位精度更高。往往容易忽视在模型实际部署时,可能面临模型较大和计算复杂度过高的问题。 本文基于一个轻量级的 Hourglass 网络和知识蒸馏,提出了一种模型复杂度更低、模型 size 更小的全新方法——FPD。

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

论文链接: https://www.paperweekly.site/papers/2647

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@haonan 推荐

#Generative Graph

本文是斯坦福大学和南加州大学发表于 ICML 2018 的工作, 论文关注的问题是基于图的概率生成模型,作者提出了一种全新的深度自回归模型GraphRNN。 写作动机如下:1. 因为需要表示 node 之间的关系,所以 space 大;2. node 的表示顺序多种多样;3. node 的生成顺序需要依赖已经生成的 node 顺序。

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐 本周NLP、CV、机器学习论文精选推荐

论文链接: https://www.paperweekly.site/papers/2608

源码链接: https://github.com/JiaxuanYou/graph-generation

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@xuzhou 推荐

#Time Series Analysis

时间序列聚类是根据序列之间的相似性或者特征进行分类。之前的方法通常是将特定的距离衡量方法和标准的聚类算法结合起来。但是这些方法没有考虑每一个序列的子序列之间的相似性,这可以被用来更好地比较时间序列。

本文提出了一个新颖的基于两个聚类步骤的聚类算法。 第一步,对每个时间序列进行最小平方多项式分割,该技术是基于逐渐变大窗口技术并返回不同长度的分割。然后基于模型近似分割和统计特征系数将所有的分割被映射到相同的维度空间。第二步,对所有时间序列对象进行组合。作者考虑到了算法自动调整主要参数的特点。实验证明了该方法的优越性。

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

论文链接: https://www.paperweekly.site/papers/2505

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@paperweekly 推荐

#Recommender System

本文是 Schibsted Media Group 发表于 RecSys 2018 的工作。 论文关注的问题是推荐系统在二手市场上的应用,作者通过在线实验对三种基于深度神经网络的推荐模型进行了基准测试,对比它们在生产环境中的性能表现。 这三种模型分别为混合项目-项目推荐器、基于序列的用户项目推荐器以及一种更高级的多臂bandit算法。

结果表明,在冷启动和基于序列的模型中,将协同过滤和内容特性相结合可以更好地表示项目。此外,作者还在其他推荐算法的基础上,将bandit作为更高级的再 排序 工具,这种方法对于利用上下文信息和组合多个业务领域的推荐系统非常有用。

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

论文链接: https://www.paperweekly.site/papers/2646

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@zhangjun推荐

#Evolutionary Algorithm

本文是 IBM Research AI 发表于 NeurIPS 2018 的工作, 亮点在于将 SGD 和进化算法融合起来,提高机器学习优化算法的有效性。

SGD 是一种常见的基于目标函数梯度的算法,常用于机器学习和深度学习模型参数学习,优化效率较高,但容易陷入局部最优解;而进化算法是一种全局优化算法,只要进化代数足够大,总会找到全局最优解,但计算效率相对低下。基于此,本文提出了两者结合的优化框架,并在 CV、NLP、ASR 任务上进行了测试,验证了本文方法的有效性。

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

论文链接: https://www.paperweekly.site/papers/2615

本周NLP、CV、机器学习论文精选推荐

本周NLP、CV、机器学习论文精选推荐

@ZSCDumin推荐

#Recommender System

本文来自南洋理工大学。作为个体的用户和群组成员的行为是不同的, 作者基于用户评级历史的深度学习技术,提出了一个注意力群体推荐模型来解决群体推荐问题,模型自动学习群组中的每个用户的影响权重并根据其成员的权重偏好为群组推荐项目。 虽然基于图和概率的模型已经得到了广泛的研究,但本文是第一个将 Attention 机制应用到群体推荐中的。


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

代码阅读方法与实践

代码阅读方法与实践

斯平内利斯 / 赵学良 / 清华大学出版社 / 2004-03-01 / 45.00元

代码阅读有自身的一套技能,重要的是能够确定什么时候使用哪项技术。本书中,作者使用600多个现实的例子,向读者展示如何区分好的(和坏的)代码,如何阅读,应该注意什么,以及如何使用这些知识改进自己的代码。养成阅读高品质代码的习惯,可以提高编写代码的能力。 阅读代码是程序员的基本技能,同时也是软件开发、维护、演进、审查和重用过程中不可或缺的组成部分。本书首次将阅读代码作为一项独立课题......一起来看看 《代码阅读方法与实践》 这本书的介绍吧!

在线进制转换器
在线进制转换器

各进制数互转换器

随机密码生成器
随机密码生成器

多种字符组合密码

MD5 加密
MD5 加密

MD5 加密工具