内容简介:今年9月份举办的深度学习Indaba2018峰会的干货确实不少,昨天文摘菌给大家整理了这10个原则是一位来自Insight数据分析研究中心的博士生Sebastian Ruder在参会期间对David Silver报告进行的整理,除了Ruder自己的解析外,也把他自己拍的照片分享了出来。
今年9月份举办的深度学习Indaba2018峰会的干货确实不少,昨天文摘菌给大家整理了 27位大咖 关于自然语言处理的精彩问答。今天文摘菌再给大家整理一份关于强化学习的10个原则,不仅在强化学习中有用,在机器学习研究中也能够提供一些参考。
这10个原则是一位来自Insight数据分析研究中心的博士生Sebastian Ruder在参会期间对David Silver报告进行的整理,除了Ruder自己的解析外,也把他自己拍的照片分享了出来。
评估推动进步
量化的评估才能推动进步。评估奖励的选择决定了进步的方向,要确保评估指标与目标密切相关,避免主观评价(例如人类学科)。还有一点,双Q学习优于单Q学习,因为后者能减少偏见。
算法的可扩展性决定成功
算法如何扩展非常重要,要避免性能上限。深度学习非常棒,因为它可以有效地扩展,但是样本效率同样重要。
算法的可扩展性的表现取决于资源,而算法的可扩展性决定是否成功:那么给予更多资源,性能如何提高?值得一提的是,这里的资源指的是计算,内存或数据。
通用性,即算法在其他任务上的表现非常重要
关键是要设计一系列具有挑战性的任务,即应该对不同的新任务进行评估。避免过度使用当前的任务。
相信Agent的经验
不要依赖人类的专业知识,不要依赖于工程特征。在数据有限时,领域专业知识和归纳偏差非常重要。
一些任务可能看起来不太可能完成,但是,你确实能在其中学到很多经验。这种任务或者项目,通常满足这三点:
1.很难接受RL的核心问题。
1.是AI的核心问题
3.非常值得你去努力
状态应该是主观的
应将状态建立为模型的状态,即RNN的隐藏状态,而不是根据环境定义。只有agent对世界的主观看法才是重要的。不要推理外部现实,因为达到的效果非常有限。
控制流
Agent影响数据流和体验。Agent应该有能够访问控制环境的功能。重点不仅在于最大化奖励,还在于建立对流的控制。
价值函数塑造世界
价值函数有效地总结了当前和未来的状况。多值函数允许我们模拟世界的多个方面。可以帮助控制流。
从想象的经验(imagined experience)中学习
接下来该怎样规划?同样的,RL算法可以从想象的经验(imagined experience)中学习,如Alphago中使用MCTS和值函数。
利用函数逼近器
可以将算法复杂度揉进神经网络架构,甚至MCTS,分层控制等也可以用NN建模。然后要真正理解:我们从模型学到了什么。
学会学习
必须精通元学习,然后,你可能不再需要手工设置网络架构,一切都是端到端学习。总而言之,神经网络要通过尽可能少的人工干预来处理事情。但是,归纳偏差应该仍然有用。
以上所述就是小编给大家介绍的《量化评估、算法拓展:强化学习研究的10大原则》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- EasyQuant 后量化算法论文解读
- EasyQuant 后量化算法论文解读
- 量化深度强化学习算法的泛化能力
- 【邢不行|量化小讲堂系列05-Python量化入门】计算创业板平均市盈率
- 量化交易的尬舞
- 抄底的艺术:量化交易之路
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
人月神话(英文版)
[美] Frederick P. Brooks, Jr. / 人民邮电出版社 / 2010-8 / 29.00元
本书内容源于作者Brooks在IBM公司任System/360计算机系列以及其庞大的软件系统OS/360项目经理时的实践经验。在本书中,Brooks为人们管理复杂项目提供了最具洞察力的见解,既有很多发人深省的观点,又有大量软件工程的实践,为每个复杂项目的管理者给出了自己的真知灼见。 大型编程项目深受由于人力划分产生的管理问题的困扰,保持产品本身的概念完整性是一个至关重要的需求。本书探索了达成......一起来看看 《人月神话(英文版)》 这本书的介绍吧!