内容简介:这篇论文是清华大学语音和语言技术中心(Center for Speech and Language Technologies,这篇论文主要从从近年来 LSTM 在 ASR 中的优异表现出发,用一些可视化方法,希望能深入理解这种有效性是如何产生的,非常有意思。这方面相关的工作有后续这些论文的笔记我也会补充上来。
这篇论文是清华大学语音和语言技术中心(Center for Speech and Language Technologies, CSLT )2016 年的一篇论文,不过奇怪的是在 Google Scholar 上找了一圈,给出的引用链接竟然是 CSLT 的 wiki 链接,难道是没有正式发表的一篇论文吗?
这篇论文主要从从近年来 LSTM 在 ASR 中的优异表现出发,用一些可视化方法,希望能深入理解这种有效性是如何产生的,非常有意思。这方面相关的工作有
- 2013 年的《Training and analysing deep recurrent neural networks》
- 2014 年的《Empirical evaluation of gated recurrent neural networks on sequence modeling》
- 2015 年的《LSTM: A search space odyssey》
- 2015 年 Andrej Karpathy 的《Visualizing and understanding recurrent networks》
- 2015 年的《Visualizing and understanding neural models in nlp》
- 2016 年的《Representation of linguistic form and function in recurrent neural networks》
- 2016 年的《Simplifying long short-term memory acoustic models for fast training and decoding》
后续这些论文的笔记我也会补充上来。
以上所述就是小编给大家介绍的《论文笔记:Visualization Analysis for Recurrent Networks》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- Raft论文阅读笔记
- MapReduce 论文和实验笔记
- MCN 搭配评价模型论文笔记
- 论文笔记:LSTM: A Search Space Odyssey
- 论文笔记 [SOSP '03] The Google File System
- 论文笔记:Decoupled Neural Interfaces using Synthetic Gradients
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。