Pytorch Optimizers 01- SGD & Momentum

栏目: Python · 发布时间: 6年前

内容简介:在pytorch中,optimization的模組提供了很多方式來進行網路的反向傳播,在這篇文章簡介常用的幾個方法.最廣為人知的一種.利用誤差和權重的偏微分,再乘上學習速率,就是權重的變化量. 在這邊符號說明::權重

在pytorch中,optimization的模組提供了很多方式來進行網路的反向傳播,在這篇文章簡介常用的幾個方法.

SGD

最廣為人知的一種.利用誤差和權重的偏微分,再乘上學習速率,就是權重的變化量. 在這邊符號說明:

:權重

:學習速率

:梯度(gradient)

J:誤差

Pytorch Optimizers 01- SGD & Momentum

以下都會利用下面這個函數進行範例說明:

f(x,y)=-x²sin(x)+y²

Pytorch Optimizers 01- SGD & Momentum

用這個函數的目的是,它有很多的局部最小值,可以來展示這些優化方法大多只能求出局部最小值,無法求出全域最小值.

SGD的運算如下圖

Pytorch Optimizers 01- SGD & Momentum

可以用上面的算式求出權重的更新值.

以下是一些SGD的參數搭配:

下圖藍色點為起點,灰色點為終點,經過100次的迭代,在不同學習速率下的展示.

Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum

SGD with momentum

這個有兩種方法,一種是普通的momentum,另一種是NAG( Nesterov Accelerated Gradient)兩者都多了一個v的變數來計算權重,在這邊我們可以調整的參數有:

: momentum ratio

:學習速率

Pytorch Optimizers 01- SGD & Momentum

Momentum的計算範例如下:

Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum

而NAG的算法如下:

Pytorch Optimizers 01- SGD & Momentum

以下是一些參數調整範例:

Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum

我們發現NAG在收斂的時候,如果參數沒調好,就會不小心跑去其他的local miminum上面,這是個頗有趣的特性.


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

概率

概率

[俄]施利亚耶夫 / 周概容 / 高等教育出版社 / 2008-1 / 48.00元

《概率(第2卷)(修订和补充第3版)》是俄国著名数学家A.H.施利亚耶夫的力作。施利亚耶夫是现代概率论奠基人、前苏联科学院院士、著名数学家A.H.柯尔莫戈洛夫的学生,在概率统计界和金融数学界影响极大。《概率(第2卷)(修订和补充第3版)》作为莫斯科大学最为出色的概率教材之一。分为一、二两卷,并配有习题集。第二卷《概率(第2卷)(修订和补充第3版)》是离散时间随机过程(随机序列)的内容。重点讲述(强......一起来看看 《概率》 这本书的介绍吧!

图片转BASE64编码
图片转BASE64编码

在线图片转Base64编码工具

随机密码生成器
随机密码生成器

多种字符组合密码

HEX HSV 转换工具
HEX HSV 转换工具

HEX HSV 互换工具