内容简介:首先先來看看 ANN 的結構:ANN 的設計思想是基於模擬生物神經傳導的機制,由許多層的謎之小矮人:「wait~wait~不對喔,你剛才說的神經元我知道,但什麼是 Activation Function 啊?:confused:」
第一個魔法陣:Artificial Neural Network (ANN, 1943)
首先先來看看 ANN 的結構:
ANN 的設計思想是基於模擬生物神經傳導的機制,由許多層的 神經元(Neuron) 互相連結而形成神經網絡。我們知道在人類大腦中,神經元是處理和傳遞訊息的細胞。在 ANN 裡,每一層的神經元擁有 輸入(input) 和 輸出(output) ,透過 激活函數(Activation Function) 來衡量對神經元輸出的重要性。
謎之小矮人:「wait~wait~不對喔,你剛才說的神經元我知道,但什麼是 Activation Function 啊?:confused:」
我自己在學習時是把 激活函數(Activation Function) 想像成神經元的閘門,換言之它代表神經元的忍受門檻,若超過/觸發神經元時則發送值出去,例如簡單的 Step Function:當函數收到的值大於 0 則回傳 1,否則皆回傳 0。
順帶一提,step function 的方法只單純的傳回 0 或 1,用在機器學習上會因為它無法微分而無法進行 gradient descent 等運算,所以大部份的 NN 不是使用這個函數。在這裡是希望透過這個很簡單的例子幫助各位見習魔法使理解激活函數的原理。
實際上激活函數在神經網絡中扮演重要角色,它的關鍵作用在於 將線性轉成非線性 (不理解這部分的同學推薦可以看莫煩先生的這篇「 激励函数 (Activation Function) 」精彩的解說),資料從神經元進入,經過非線性的激活函數下輸出,傳入下一層神經元,如此往下傳遞直到最後的輸出層。而正是這些激活函數的作用,讓神經網絡有足夠的能力去抓取複雜的特徵(features),從而提高模型的效能。
文章尾聲來回顧 ANN 的魔法陣結構組成:
- 輸入層(Input layer) :接受訊息的神經元,稱為輸入向量。
- 隱藏層(Hidden layer) :輸入層和輸出層之間眾多神經元和連結組成的各個層面,可以有多層。
- 輸出層(Output layer) :訊息在神經元連結中傳輸、分析、權衡後所形成的輸出結果(稱為輸出向量)。
ANN 一般稱為感知器(perceptron)或多層感知器(Multi-layer perceptron),目前神經網路有許多變形,在未來的魔法陣系列中會一一介紹。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 跟着 WWDC 一起探秘符号解析的魔法
- 资料 | Git 魔法.pdf
- 【译】canvas笔触魔法师
- (Angular)模版引用变量的魔法
- iOS黑魔法 - Method Swizzling
- 魔法书2:测试Arduino 执行速度极限
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。