神經網絡:多層感知器-MLP
MLP的最經典例子就是數字識別,即我們隨便給出一張上面寫有數字的圖片并作為輸入,由它最終給出圖片上的數字到底是幾。

對于一張寫有數字的圖片,我們可將其分解為由28*28=784個像素點構成,每個像素點的值在(0~1)之間,其表示灰度值,值越大該像素點則越亮,越低則越暗,以此表達圖片上的數字并將這786個像素點作為神經網絡的輸入。
而輸出則由十個神經元構成,分別表示(0~9)這十個數字,這十個神經元的值也是在(0~1)之間,也表示灰度值,但神經元值越大表示從輸入經判斷后是該數字的可能性越大。

隱層的層數和神經元的選擇需根據具體情況選擇,此例選擇兩層隱層,每層16個神經元。那么根據上面的敘述,根據權重、偏置的個數此神經網絡將會有13002個參數需要去調節,而如何調整這些參數,從而使神經網絡有較好的學習效果則正是下篇更新的神經網絡訓練和學習的內容。
通過樓主上面的敘述,該圖像識別問題最終可通過線性方程的方式表示出來,從而來描述本篇通過MLP神經網絡進行數字識別的案例,并通過建立的問題描述模型來編程實現。
總結
MLP神經網絡的結構還是挺簡單的,基本的結構和原理是入門學習所必須了解的。神經網絡訓練和學習這塊等樓主有機會再更新,發現前期給自己挖太多坑都還沒填,主要在于樓主忙于工作,最近正好是2019上海車展,樓主也去轉了一波,基本都待在二層的零部件供應商那里,了解下各大供應商在智能出行、電驅、智能網聯等方面的系統集成和解決方案,收獲還是很多的,也希望能在下篇跟大家做個分享。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













