Pytorch Optimizers 01- SGD & Momentum

栏目: Python · 发布时间: 6年前

内容简介:在pytorch中,optimization的模組提供了很多方式來進行網路的反向傳播,在這篇文章簡介常用的幾個方法.最廣為人知的一種.利用誤差和權重的偏微分,再乘上學習速率,就是權重的變化量. 在這邊符號說明::權重

在pytorch中,optimization的模組提供了很多方式來進行網路的反向傳播,在這篇文章簡介常用的幾個方法.

SGD

最廣為人知的一種.利用誤差和權重的偏微分,再乘上學習速率,就是權重的變化量. 在這邊符號說明:

:權重

:學習速率

:梯度(gradient)

J:誤差

Pytorch Optimizers 01- SGD & Momentum

以下都會利用下面這個函數進行範例說明:

f(x,y)=-x²sin(x)+y²

Pytorch Optimizers 01- SGD & Momentum

用這個函數的目的是,它有很多的局部最小值,可以來展示這些優化方法大多只能求出局部最小值,無法求出全域最小值.

SGD的運算如下圖

Pytorch Optimizers 01- SGD & Momentum

可以用上面的算式求出權重的更新值.

以下是一些SGD的參數搭配:

下圖藍色點為起點,灰色點為終點,經過100次的迭代,在不同學習速率下的展示.

Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum

SGD with momentum

這個有兩種方法,一種是普通的momentum,另一種是NAG( Nesterov Accelerated Gradient)兩者都多了一個v的變數來計算權重,在這邊我們可以調整的參數有:

: momentum ratio

:學習速率

Pytorch Optimizers 01- SGD & Momentum

Momentum的計算範例如下:

Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum

而NAG的算法如下:

Pytorch Optimizers 01- SGD & Momentum

以下是一些參數調整範例:

Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum

我們發現NAG在收斂的時候,如果參數沒調好,就會不小心跑去其他的local miminum上面,這是個頗有趣的特性.


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

计算机图形学原理及实践:C语言描述(原书第2版) (平装)

计算机图形学原理及实践:C语言描述(原书第2版) (平装)

福利 / 唐泽圣 / 机械工业出版社 / 2004-3 / 95.0

《计算机图形学原理及实践:C语言描述(原书第2版)》:这是计算机图形学领域的一部经典之作,作者Fley、va Dam等是国际图形学界的著名学者、学术带头人,而且《计算机图形学原理及实践:C语言描述(原书第2版)》英文版自出版以来,一直是各国大学计算机图形学课程的主要教科书。来自清华大学、北京大学、中国科学院计算技术研究所、中国科学院软件研究所的多位图形学领域的专家和精英花费了大量的时间和精力进行翻......一起来看看 《计算机图形学原理及实践:C语言描述(原书第2版) (平装)》 这本书的介绍吧!

CSS 压缩/解压工具
CSS 压缩/解压工具

在线压缩/解压 CSS 代码

URL 编码/解码
URL 编码/解码

URL 编码/解码

UNIX 时间戳转换
UNIX 时间戳转换

UNIX 时间戳转换