神經網絡:多層感知器-MLP
MLP神經網絡的結構和原理
理解神經網絡主要包括兩大內容,一是神經網絡的結構,其次則是神經網絡的訓練和學習,其就好比我們的大腦結構是怎么構成的,而基于該組成我們又是怎樣去學習和識別不同事物的,這次樓主主要講解第一部分,而訓練和學習則放到后續更新中。
神經網絡其實是對生物神經元的模擬和簡化,生物神經元由樹突、細胞體、軸突等部分組成。樹突是細胞體的輸入端,其接受四周的神經沖動;軸突是細胞體的輸出端,其發揮傳遞神經沖動給其他神經元的作用,生物神經元具有興奮和抑制兩種狀態,當接受的刺激高于一定閾值時,則會進入興奮狀態并將神經沖動由軸突傳出,反之則沒有神經沖動。

我們基于生物神經元模型可得到多層感知器MLP的基本結構,最典型的MLP包括包括三層:輸入層、隱層和輸出層,MLP神經網絡不同層之間是全連接的(全連接的意思就是:上一層的任何一個神經元與下一層的所有神經元都有連接)。


由此可知,神經網絡主要有三個基本要素:權重、偏置和激活函數
權重:神經元之間的連接強度由權重表示,權重的大小表示可能性的大小
偏置:偏置的設置是為了正確分類樣本,是模型中一個重要的參數,即保證通過輸入算出的輸出值不能隨便激活。
激活函數:起非線性映射的作用,其可將神經元的輸出幅度限制在一定范圍內,一般限制在(-1~1)或(0~1)之間。最常用的激活函數是Sigmoid函數,其可將(-∞,+∞)的數映射到(0~1)的范圍內。

激活函數還有tanh和ReLU等函數,tanh是Sigmoid函數的變形,tanh的均值是0,在實際應用中有比Sigmoid更好的效果;ReLU是近來比較流行的激活函數,當輸入信號小于0時,輸出為0;當輸入信號大于0時,輸出等于輸入;具體采用哪種激活函數需視具體情況定。

從上面可知下層單個神經元的值與上層所有輸入之間的關系可通過如下方式表示,其它以此類推。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













