内容简介:Salesforce研究院(Salesforce Research)创建的自然语言处理架构可以处理多种模型和任务。在通常情况下,自然语言处理(NLP)针对每种功能(如翻译、情感分析和问题和答案)都需建一个模型。 由Salesforce首席科...
Salesforce研究院(Salesforce Research)创建的自然语言处理架构可以处理多种模型和任务。在通常情况下,自然语言处理(NLP)针对每种功能(如翻译、情感分析和问题和答案)都需建一个模型。
由Salesforce首席科学家Richard Socher领导的一项研究旨在完成名为自然语言 Decathlon(decaNLP)的挑战任务。decaNLP挑战涵盖了10个任务: 问题回答、机器翻译、汇总、自然语言推理、情感分析、语义角色标注、关系提取、目标导向对话、数据库查询生成和代词解析,这些任务被送至系统进行共同学习。
可以将decaNLP想象成自然语言处理瑞士军刀。如果NLP需要重复定制,规模大了以后就不能使用。 Salesforce想寻找一种通用的NLP方法,将每项任务转换为问题回答格式并进行共同训练。
Socher表示,该方法融合了深度学习和NLP,可将问题的讨论转向围绕元架构的讨论。他补充表示,架构方法也可以用来防止NLP函数分层的模型蔓延。
Socher表示,“这个项目可以即时用在一些有用的应用上,因为项目是个单一部署模型,而且易于维护。我们将一堆 工具 整合在一起。”
Salesforce可能会在爱因斯坦分析及各种云计算的产品路线图里使用decaNLP方法。
decaNLP可与多任务问答网络结合在一起,无需任何特定模型就可以针对所有任务进行共同学习。该网络还可以通过新任务相关的说明进行自适应调变。
下图是多任务问答网络图。
另外,Salesforce 研究院还完成了处理数据集、训练和评估模型的代码,并定义了一个名为decaScore的评分。
用decaNLP系统训练过的NLP理论上可以为聊天机器人提供更好的框架及更好地提供客户服务交换中的任何信息。
来自:SinaTech
【声明】文章转载自:开源中国社区 [http://www.oschina.net]
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 迄今最大模型?OpenAI发布15亿参数量通用语言模型GPT-2
- 模型小快好!微软预训练语言模型通用压缩方法MiniLM助你“事半功倍”
- 通用的图像-文本语言表征学习:多模态预训练模型 UNITER
- 开源 | 一款超轻量级通用人脸检测模型,大小仅 1MB
- 通用语言理解新突破:微软提出基于知识蒸馏的多任务深度学习模型
- ICML 2019 | 序列到序列自然语言生成任务超越BERT、GPT!微软提出通用预训练模型MASS
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
图片转BASE64编码
在线图片转Base64编码工具
UNIX 时间戳转换
UNIX 时间戳转换