我們真的永遠也理解不了人工智能嗎?
現代機器學習技術為開發者提供了不同的選擇:究竟是要精確獲知結果,還是要以犧牲精確度為代價、了解出現該結果的原因?“了解原因”可幫助我們制定策略、做出適應、并預測模型何時可能失靈。而“獲知結果”則能幫助我們即刻采取恰當行動。

這實在令人左右為難。但一些研究人員提出,如果既能保留深度網絡的多層構造、又能理解其運作原理,豈不是最好?令人驚奇的是,一些最受看好的研究所其實是將神經網絡作為實驗對象看待的,即沿襲生物科學的思路,而不是將其視作純數學的研究對象。尤辛斯基也表示,他試圖“通過我們了解動物、甚至人類的方式來了解深度網絡。”他和其他計算機科學家借鑒了生物研究技術,借神經科學家研究人腦的方式研究神經網絡:對各個部件展開詳細分析,記錄各部件內部對微小輸入變化的反應,甚至還會移除某些部分、觀察其余部分如何進行彌補。
在從無到有地打造了一種新型智能之后,科學家如今又將其拆開,用數字形式的“顯微鏡”和“手術刀”對這些“虛擬器官”展開分析。
尤辛斯基坐在一臺電腦前、對著網絡攝像頭說話。攝像頭接收的數據被輸入深度神經網絡,而與此同時,該網絡也在由尤辛斯基和同事們開發的Deep Visualization(深度可視化)軟件工具包進行分析。尤辛斯基在幾個屏幕間來回切換,然后將網絡中的一個神經元放大。“這個神經元似乎能夠對面部圖像做出反應。”人腦中也有這種神經元,其中多數都集中在一處名為“梭狀臉區”的腦區中。該腦區最早由1992年開始的一系列研究發現,被視作人類神經科學最可靠的觀察結果之一。對腦區的研究還需借助正電子發射計算機斷層掃描等先進技術,但尤辛斯基只需憑借代碼、便可對人造神經元展開詳細分析。
借助該方法,尤辛斯基可將特定的人造神經元與人類能理解的概念或物體(如人臉)建立起映射關系,從而將神經網絡變為有力工具。該研究還挑明了圖片中最容易激發面部神經元反映的特征。“眼睛顏色越深、嘴唇越紅,神經元的反應就更為強烈。”
杜克大學計算機科學、電子與計算機工程教授辛西婭·魯丁認為,這些“事后解讀”本身是有問題的。她的研究重點為以規則為基礎的機器學習系統,可應用于罪犯量刑、醫療診斷等領域。在這些領域中,人類能夠進行解讀,且人類的解讀十分關鍵。但在視覺成像等領域,“個人的解讀結果純屬主觀。”誠然,我們可以通過識別面部神經元、對神經網絡的響應進行簡化,但如何才能確定這就是該網絡尋找的結果呢?無獨有偶,有一套著名理論認為,不存在比人類視覺系統更簡單的視覺系統模型。“對于一個復雜系統在做什么事情,可以有很多種解釋,”魯丁指出,“難道從中選出一個你‘希望’正確的解釋就行了嗎?”
尤辛斯基的工具包可以通過逆向工程的方式、找出神經網絡自身“希望”正確的結果,從而在部分程度上解決上述問題。該項目先從毫無意義的“雪花”圖像開始,然后對像素進行逐個調整,通過神經網絡訓練的反向過程逐步修改圖片,最終找出能夠最大限度激發某個神經元響應的圖片。將該方法運用到AlexNet神經元上后,該系統生成了一些奇奇怪怪的照片,雖然看上去頗為詭異,但的確能看出屬于它們被標記的類別。
這似乎支持了尤辛斯基的論斷:這些面部神經元尋找的確實是面部圖像。但還有一個問題:在生成這些圖像的過程中,該流程依賴了一種名為“自然圖像優先”的統計學約束,因此其生成的圖像均會模仿真實物體照片的結構。而當他去除這些規則后,該工具包仍會選取被其標記為“信度最大”的圖片,但這些圖片看上去就像電視機失去信號時的“雪花”一樣。事實上,尤辛斯基指出,AlexNet傾向于選擇的大部分圖片在人眼看來都是一片亂糟糟的“雪花”。他承認道:“很容易弄清如何讓神經網絡生成極端結果。”

圖為深度神經網絡中的單個神經元(由綠框標出)對尤辛斯基的面部圖像做出反應,就像人腦的某個腦區(標為黃色)也會對面部圖像做出反應一樣
為避免這些問題,弗吉尼亞理工大學電子與計算機工程助理教授杜魯夫·巴特拉采用了一種更高級的實驗方法對深度網絡進行解讀。他沒有去試圖尋找網絡內部結構的規律,而是用一種眼動追蹤技術分析神經網絡的行為。在研究生阿比謝克·達斯和哈什·阿格拉瓦爾的帶領下,巴特拉的團隊向一個深度網絡就某張圖片提問,如房間窗戶上是否有窗簾等等。不同于AlexNet或類似系統,達斯的網絡每次只關注圖片的一小部分,然后“掃視”圖片各處,直到該網絡認為已經得到了足夠的信息、可以回答問題為止。經過充分訓練后,這一深度神經網絡的表現已經非常出色,精確度足以與人類的最高水平媲美。
接下來,達斯、巴特拉和同事們還想了解該網絡是如何做出決策的。于是他們分析了該網絡在圖片上選取的觀察點。而結果令他們大吃一驚:在回答“圖中是否有窗簾”的問題時,該網絡根本沒去尋找窗戶,而是先對圖片底部進行觀察,如果發現了床鋪,就停下來不找了。看來在用來訓練該網絡的數據集中,裝有窗簾的窗戶可能常出現在臥室里。
該方法雖然揭露了深度網絡的一些內部運行機制,但也凸顯了可解釋性帶來的挑戰。巴特拉指出:“機器捕捉到的并不是關于這個世界的真相,而是關于數據集的真相。”這些機器嚴格按照訓練數據進行了調整,因此很難總結出它們運作機制的普遍規則。更重要的是,你要是不懂它如何運作,就無法預知它會如何失靈。而從巴特拉的經驗來看,當它們失靈的時候,“就會輸得一敗涂地。”

圖為“深度視覺化”工具包生成的“理想貓臉”。該程序先從類似電視機沒信號時的“雪花”圖像開始,對像素進行逐個調整,直到AlexNet神經網絡的面部神經元產生最大響應為止
尤辛斯基和巴特拉等研究人員面臨的一些障礙對人腦科學家來說也并不陌生。例如,對神經成像的解讀就常常遭到質疑。2014年,認知神經科學家瑪莎·法拉在一篇領域評述中寫道:“令人擔憂的是……(功能性腦部)圖像更像是研究人員的創造發明、而非觀察結果。”這一問題在各種智能系統中也屢屢出現,說明無論對人腦、還是對智能的研究而言,該問題都會成為一大障礙。
追求可解釋性是否為一項愚蠢之舉呢?2015年,加州大學圣地亞哥分校的扎克利·立頓發表了一篇名為《模型可解釋性的迷思》的博文,批判性地探討了解讀神經網絡背后的動機、以及為大型數據集打造可解讀的機器學習模型的價值。在2016年國際機器學習大會(ICML)上,他還向馬里奧托夫與兩名同事組織的“人類可解釋性”專題研討會提交了一篇與該話題相關的、頗具爭議性的論文。

立頓指出,許多學者并不贊同“可解釋性”這一概念。因此他認為,要么是人們對可解釋性的理解還不夠,要么是它有太多可能的含義。無論是哪種情況,追求可解釋性也許都無法滿足我們對“簡單易懂的神經網絡輸出”的渴求。立頓在博文中指出,當數據集過大時,研究人員完全可以抑制去解讀的沖動,要相信“憑借經驗也能成功”。他表示,該領域的目的之一,便是要“打造學習能力遠超人類的模型”,如果太過注重可解釋性,就難以使這類模型充分發揮潛力。
但這種能力既是特點也是缺陷:如果我們不明白網絡輸出是如何生成的,就無從知曉該網絡需要何種輸入。1996年,英國蘇塞克斯大學的艾德里安·湯普森采用與如今訓練深度網絡相似的技術、用軟件設計了一款電路。這一電路要執行的任務很簡單:區分兩個音頻的音調。經過成千上萬次調整和重排后,該軟件終于找到了一種能近乎完美地完成任務的配置。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













