Pytorch Optimizers 01- SGD & Momentum

栏目: Python · 发布时间: 6年前

内容简介:在pytorch中,optimization的模組提供了很多方式來進行網路的反向傳播,在這篇文章簡介常用的幾個方法.最廣為人知的一種.利用誤差和權重的偏微分,再乘上學習速率,就是權重的變化量. 在這邊符號說明::權重

在pytorch中,optimization的模組提供了很多方式來進行網路的反向傳播,在這篇文章簡介常用的幾個方法.

SGD

最廣為人知的一種.利用誤差和權重的偏微分,再乘上學習速率,就是權重的變化量. 在這邊符號說明:

:權重

:學習速率

:梯度(gradient)

J:誤差

Pytorch Optimizers 01- SGD & Momentum

以下都會利用下面這個函數進行範例說明:

f(x,y)=-x²sin(x)+y²

Pytorch Optimizers 01- SGD & Momentum

用這個函數的目的是,它有很多的局部最小值,可以來展示這些優化方法大多只能求出局部最小值,無法求出全域最小值.

SGD的運算如下圖

Pytorch Optimizers 01- SGD & Momentum

可以用上面的算式求出權重的更新值.

以下是一些SGD的參數搭配:

下圖藍色點為起點,灰色點為終點,經過100次的迭代,在不同學習速率下的展示.

Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum

SGD with momentum

這個有兩種方法,一種是普通的momentum,另一種是NAG( Nesterov Accelerated Gradient)兩者都多了一個v的變數來計算權重,在這邊我們可以調整的參數有:

: momentum ratio

:學習速率

Pytorch Optimizers 01- SGD & Momentum

Momentum的計算範例如下:

Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum

而NAG的算法如下:

Pytorch Optimizers 01- SGD & Momentum

以下是一些參數調整範例:

Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum
Pytorch Optimizers 01- SGD & Momentum

我們發現NAG在收斂的時候,如果參數沒調好,就會不小心跑去其他的local miminum上面,這是個頗有趣的特性.


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

iOS Web应用开发

iOS Web应用开发

皮基 (Andrea Picchi) / 罗晴明 / 人民邮电出版社 / 2013-8-1 / CNY 79.00

本书介绍了如何使用Web标准技术来为iPhone和iPad制作Web应用。书中利用最前沿的Web和移动技术,演示了如何使用HTML5来完成繁重的基础工作,如何使用CSS3来制作外观,以及如何使用JavaScript来为移动网站或Web应用添加程序逻辑。 通过阅读本书,读者可以掌握面向移动的项目的开发流程。作者逐章递进,引导读者了解iOS设计与开发的各个步骤。读者可以学习到如下知识: 设......一起来看看 《iOS Web应用开发》 这本书的介绍吧!

HTML 压缩/解压工具
HTML 压缩/解压工具

在线压缩/解压 HTML 代码

URL 编码/解码
URL 编码/解码

URL 编码/解码

SHA 加密
SHA 加密

SHA 加密工具