内容简介:雷锋网 AI 科技评论按:相比于传统方式中需要工程人员手动设计机器人每一个动作的精确参数,AI 时代的研究人员们有了一种全自动化的、有着广阔前景的新学习方式:深度强化学习可以让机器人从经验、从与世界的互动中直接学习行为,因为它可以借助通用化的神经网络表示,处理复杂的传感器输入。然而,许多现有的强化学习算法都需要几天、几周甚至更久时长的真实世界数据才能收敛到比较理想的动作。更重要的是,这样的系统很难在复杂的机器人系统上使用(比如多足机器人),在系统的探索学习过程中很容易就会损伤到机器人的机械部件,同时还难以调
雷锋网 AI 科技评论按:相比于传统方式中需要工程人员手动设计机器人每一个动作的精确参数,AI 时代的研究人员们有了一种全自动化的、有着广阔前景的新学习方式:深度强化学习可以让机器人从经验、从与世界的互动中直接学习行为,因为它可以借助通用化的神经网络表示,处理复杂的传感器输入。然而,许多现有的强化学习算法都需要几天、几周甚至更久时长的真实世界数据才能收敛到比较理想的动作。更重要的是,这样的系统很难在复杂的机器人系统上使用(比如多足机器人),在系统的探索学习过程中很容易就会损伤到机器人的机械部件,同时还难以调节超参数,许多安全方面的考量也可能带来更多的限制。
近期,谷歌 AI 与 UC 伯克利大学合作研发了一种新的强化学习算法 Soft Actor-Critic(SAC)。这是一种稳定、高效的深度强化学习算法,它高度符合机器人实验的需求,也就非常适合真实世界中的机器人技能学习。重点是,SAC 的学习效率足够高,可以在数个小时内学会解决真实世界的机器人问题,而且同一套超参数可以在多种不同的环境中工作。
谷歌 AI 撰写博客介绍了 SAC 背后的一些研究工作,也介绍了相关的实验结果。雷锋网 AI 科技评论编译如下。另外可以参见 OpenAI 先在模拟环境中训练机器人,然后高效地迁移到真实机器人 的研究。
在真实世界中学习机器人的要求
真实世界的机器人实验有着一些重大的挑战,比如硬件失效和人工重置会导致数据流经常中断,以及需要让探索学习过程平滑,避免快速的机械磨损或者撞击破坏,这都对算法理论和算法的实现增加了额外的限制,包括以下(但不限于):
-
有较高的样本效率,以便降低学习时间;
-
需要调节的超参数的数量尽量小;
-
能在不同的场景中重复使用已经采集到的数据(也被称作“无策略学习”);
-
确保探索学习过程不损坏硬件;
Soft Actor-Critic
Soft Actor-Critic 是基于最大熵强化学习开发的,这是一种尝试让预期回报最大化(标准的强化学习目标),同时也让策略的熵最大化的框架。熵更高的策略具有更高的随机性,从直觉上看来,这意味着最大熵强化学习会学习出能取得高回报的策略中具有最高随机性的那个策略。
为什么在机器人学习中这是一件好事呢?一个明显的原因是,为最大熵优化的策略会更为鲁棒:如果策略在训练过程中能够允许高度随机的动作,那么它在测试时候也就更有可能可以顺利地应对预期不到的扰动。不过更稳妥的理由是,最大熵训练不仅可以提高算法对超参数的鲁棒性,也可以提高它的采样效率。
Soft Actor-Critic 会学习一个随机策略,这个策略会把状态映射到动作以及一个 Q 函数,这个 Q 函数会估计当前策略的目标价值,并通过逼近动态编程优化它们。通过这样的方式,Soft Actor-Critic 可以让经过熵强化的回报最大化。在这个过程中,SAC 会把目标看作一个绝对真的方法来导出更好的强化学习算法,它们的表现稳定,而且有足够高的样本效率,可以用在真实世界的机器人应用中。
SAC 的表现
研究人员们在两个任务中评估了算法的表现:1,Ghost Robotics 环境中 Minitaur 四足机器人的行走;2,用一个三指动力爪转动阀门。学习行走这件事当然是一个不小的挑战了,由于机器人是欠驱动的,所以机器人需要学会如何在四只腿之间平衡接触力的大小,这样才能持续往前走。未经训练的策略会让机器人失去平衡摔倒,而如果摔了太多次,最终是有可能把机器人摔坏的。样本高效的学习在这时候也就非常关键。
虽然研究人员们是在平地上训练的机器人行走策略,但稍后的测试阶段是在多种不同的地面状况和障碍物上进行的。理论上来说,通过 SAC 学习到的策略在测试时遇到扰动的时候也应当是鲁棒的。而实际上研究人员们也观察到,通过他们的方法学习到的策略不需要任何额外的学习就可以应对这些扰动。
训练
测试 1
测试 2
测试 3
下面这个操控任务需要机械手转动一个类似阀门的物体,目标是让蓝色的一面朝向右侧。这个任务尤其有挑战性,不仅任务的理解感知有难度,而且还需要控制这个具有 9 个自由度的机械手。为了能够感知这个阀门,机器人必须要使用来自摄像头的原始 RGB 图像输入(如图右下角)。对于每一轮尝试,阀门的位置都会重新设定到一个随机角度,迫使策略学习如何根据 RGB 图像输入感知当前的阀门角度。
对于这两个任务,SAC 都能很快地解决:前一个四足机器人任务学了 2 个小时,后一个观察图像、转动阀门的任务学习了 20 个小时。研究人员们也为转动阀门任务学习了一个无需图像输入的策略,他们把其它方式采集到的阀门角度作为观察结果输入给策略,在这种简单的设置下 SAC 只需要 3 个小时就可以学会解决这个任务。相比之下,更早的使用自然策略梯度的研究学习同一个无需图像输入的任务需要花 7.4 个小时。
结论
这项研究展示了基于熵最大化框架的深度强化学习可以用来在有挑战性的真实世界环境中学习机器人技能。由于这些策略是直接在真实世界中学习到的,它们对环境中的变化表现出了鲁棒性,这通过其他方式是很难获得的。研究人员们也展示了他们可以直接从高维图像观察中学习,这对经典机器人控制来说也是一个很大的挑战。研究人员们希望 SAC 的发表可以帮助其他的研究团队一同更好地把深度强化学习应用在未来更多的复杂真实世界任务中。
阅读原论文可见: https://arxiv.org/abs/1812.05905
via ai.googleblog.com ,雷锋网 (公众号:雷锋网) AI 科技评论编译
雷锋网版权文章,未经授权禁止转载。详情见 转载须知 。
以上所述就是小编给大家介绍的《谷歌和UC伯克利的新式Actor-Critic算法快速在真实世界训练机器人》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 帮帮智能问答机器人中TaskBot任务对话算法实践
- 阿里云小蜜对话机器人背后的核心算法
- 用Q-learning算法实现自动走迷宫机器人
- 机器人、算法和人工智能将如何重塑企业支撑职能的未来
- 机器人在线“偷懒”怎么办?阿里研究出了这两套算法
- 美国大学生创建深度学习算法 “教会”机器人临摹手写和绘画内容
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Twisted Network Programming Essentials
Abe Fettig / O'Reilly Media, Inc. / 2005-10-20 / USD 29.95
Developing With Python's Event-driven Framework一起来看看 《Twisted Network Programming Essentials》 这本书的介绍吧!