机器阅读(二)--模型(未完成)

栏目: 数据库 · 发布时间: 5年前

内容简介:主要包含:传统特征模型、Stanford Attentive Reader、实验结果等文章p,问题q,答案a,候选答案集合E。包含两个步骤:1)为每个候选答案a构建特征向量

主要包含:传统特征模型、Stanford Attentive Reader、实验结果等

传统特征模型

基本思路

文章p,问题q,答案a,候选答案集合E。包含两个步骤:

1)为每个候选答案a构建特征向量 \(f_{p,q}(a)\)

2)利用机器学习方法对答案的特征向量进行 排序 分类,正确答案要比其他候选答案排序要高 \[ W^Tf_{p,q}(a) > W^Tf_{p,q}(e), \forall e \in E-\{a\} \]

八种特征

特征向量对传统特征模型很重要,它需要有:

  • 丰富的信息
  • 能应对各种具体的任务
  • 不太稀疏

特征向量包含数值特征和语言特征,其中语言特征需要利用已有的语言特征工具。语言特征使得模型有两个缺点:

  • 让模型更加的笨重
  • 模型依赖于已有 工具 的准确率

对于完型填空任务而言,有八种特征,如下:

机器阅读(二)--模型(未完成)

现代NLP组件

词向量

传统one-hot编码没有词汇之间的语义相似度。

词向量的假设:相似上下文中的单词具有相似的语义。对语义相同的词汇,词向量的编码也会相同。 \[ \cos(\mathbf{v}_{\text{car}}, \mathbf{v}_{\text{vechicle}}) < \cos(\mathbf{v}_{\text{car}}, \mathbf{v}_{\text{man}}) \] 常见的词向量有Word2vec、 GloveFasttext

循环神经网络

RNN天生能有效处理时序信息、变长的时序信息。

LSTM解决了RNN的梯度消失问题,利于网络优化。

BiLSTM 从两个方向去编码时序信息, 把两个方向的特征拼接起来 ,能够充分编码,是NLP任务中一种通用的特征抽取器。

注意力机制

经过RNN编码后的序列得到 \(\mathbf{h}_1, \mathbf{h}_2, \cdots, \mathbf{h}_n\) 。一般使用 \(\mathbf{h}_n\) 去做下游任务,这就需要模型把所有信息压缩到一个向量中。这就造成了 信息瓶颈问题

这里使用注意力机制对这n个向量进行加权求和,得到序列的表达。权值决定了序列中哪些部分是最有用、最相关的。

注意力机制不一定只能和RNN使用,比如Transformer:词向量、注意力机制、FFN、位置信息。它的优点有:参数更少、并行性更好、上限更高。


以上所述就是小编给大家介绍的《机器阅读(二)--模型(未完成)》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

GitHub入门与实践

GitHub入门与实践

[日] 大塚弘记 / 支鹏浩、刘斌 / 人民邮电出版社 / 2015-7 / 39.00元

本书从Git的基本知识和操作方法入手,详细介绍了GitHub的各种功能,GitHub与其他工具或服务的协作,使用GitHub的开发流程以及如何将GitHub引入到企业中。在讲解GitHub的代表功能Pull Request时,本书专门搭建了供各位读者实践的仓库,邀请各位读者进行Pull Request并共同维护。一起来看看 《GitHub入门与实践》 这本书的介绍吧!

JSON 在线解析
JSON 在线解析

在线 JSON 格式化工具

在线进制转换器
在线进制转换器

各进制数互转换器

html转js在线工具
html转js在线工具

html转js在线工具