学习第n个任务会比之前的容易吗?

栏目: 编程工具 · 发布时间: 6年前

内容简介:Sebastian ThrunThis paper investigates learning in a lifelong context. Lifelong learning addresses situations in which a learner faces a whole stream of learning tasks. Such scenarios provide the opportunity to transfer knowledge across multiple learning t

Sebastian Thrun

Abstract

This paper investigates learning in a lifelong context. Lifelong learning addresses situations in which a learner faces a whole stream of learning tasks. Such scenarios provide the opportunity to transfer knowledge across multiple learning tasks, in order to generalize more accurately from less training data. In this paper, several different approaches to lifelong learning are described and applied in an object recognition domain. It is shown that across the board, lifelong learning approaches generalize consistently more accurately from less training data, by their ability to transfer knowledge across learning tasks.

Introduction

人在学习过程中并不只使用提供的训练数据,而是会综合过往的经验。就像学车的时候,也许你才学了几天,但是你从学就学会了识别路牌,有一些基本的机械知识,这些都会帮助你学习驾驶。

lifelong learning架构是指,假设你面对的任务是你整个人生中所有任务,这些任务间的学习是可以相互促进的。从前面学习的任务中提取经验会有利于新的任务的学习。

我们可以假设每个新的任务是一个concept,每个concept对应一个函数f。所以遇到一个任务,我们需要先知道它属于哪个concept,用哪个函数。我们在学习第n个任务的时候,前n-1个任务的数据也会有用,这些数据叫做支持集。

Memory-Based Learning Approaches

基于记忆的方式。

KNN 和 Shepard

Shepard是给KNN每个点加了权重,距离越远,权重越小。

学习新的表征

我们认为一个好的表征是让同类的样本间距离近,不同类的样本间距离远。

学习距离函数

可以用神经网络来学习距离函数,设定一个阈值,来判断样本是属于哪个concept。

基于神经网络的方式

反向传播

Learning with Hints

看起来像multi-task leanring的原始版本。

EBNN

作者之前的一篇论文。EBNN估计目标函数的斜率(tangents)。使用了Tangent-Prop算法。

实验结果

ENBB最好,有知识迁移效果。

Discussion

Learning becomes easier when embedded in a lifelong learning context.

Y. S. Abu-Mostafa. Learning from hints in neural networks. Journal of Complexity, 6: 192-198,

W-K. Ahn and W F. Brewer. Psychological studies of explanation-based learning. In

G. Dejong, editor, Investigating Explanation-Based Learning. Kluwer Academic Publishers,

BostonlDordrechtILondon, 1993.

T. M. Mitchell and S. Thrun. Explanation-based neural network learning for robot control. In

S. J. Hanson, J. Cowan, and C. L. Giles, editors, Advances in Neural Information Processing

Systems 5, pages 287-294, San Mateo, CA, 1993. Morgan Kaufmann.

] J. O'Sullivan, T. M. Mitchell, and S. Thrun. Explanation-based neural network learning from

mobile robot perception. In K. Ikeuchi and M. Veloso, editors, Symbolic Visual Learning. Oxford

University Press, 1995.

D. E. Rumelhart, G. E. Hinton, and R. J. Williams. Learning internal representations by error

propagation. In D. E. Rumelhart and 1. L. McClelland, editors, Parallel Distributed Processing.

Vol. I + II. MIT Press, 1986.

S. Thrun. Explanation-Based Neural Network Learning: A Lifelong Learning Approach. Kluwer

Academic Publishers, Boston, MA, 1996. to appear.


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

计算智能

计算智能

Russell C. Eberhart、Yuhui Shi / 人民邮电出版社 / 2009-2 / 69.00元

《计算智能:从概念到实现(英文版)》面向智能系统学科的前沿领域,系统地讨论了计算智能的理论、技术及其应用,比较全面地反映了计算智能研究和应用的最新进展。书中涵盖了模糊控制、神经网络控制、进化计算以及其他一些技术及应用的内容。《计算智能:从概念到实现(英文版)》提供了大量的实用案例,重点强调实际的应用和计算工具,这些对于计算智能领域的进一步发展是非常有意义的。《计算智能:从概念到实现(英文版)》取材......一起来看看 《计算智能》 这本书的介绍吧!

URL 编码/解码
URL 编码/解码

URL 编码/解码

SHA 加密
SHA 加密

SHA 加密工具

RGB HSV 转换
RGB HSV 转换

RGB HSV 互转工具