圖片一縮放,AI就把熊貓“認”成長臂猿了,這么傻的AI該如何保護?
在實際生活中,我們通常不會期望一個圖像在經過縮小后變成另外一個模樣完全不同的圖像,但這樣奇怪的事情可能會在人工智能領域發生。
來自德國 Braunschweig 技術大學的研究人員通過大量實驗已經證明,仔細修改數碼照片的像素值可以使照片在縮小尺寸后變成與之前完全不同的圖像,而這些對圖像的修改操作在人工智能算法領域的影響值得被廣泛關注。
圖像縮放技術在人工智能研究領域有著十分重要的地位,但是也存在一些挑戰。其主要的問題就是,惡意攻擊者可以利用這種圖像縮放技術,對用于人臉識別、目標檢測等計算機視覺方向的機器學習模型發起對抗性攻擊。

其中,對抗性機器學習是一種對數據進行操作的技術,它能在不被人類察覺的情況下改變人工智能算法的行為,而創建對抗性的機器學習示例是一個反復試驗的過程。創建對抗性示例包括對圖像像素進行細微的調整,再通過 AI 算法重新運行該圖像,以查看圖像置信度的變化。通過適當調整后,可以自動化創建一個噪音映射(noise map)來降低一個類的置信度,而提高另一個類的置信度。
在今年 Usenix 安全研討會上發表的一篇論文中,TU Braunschweig 的研究人員就針對機器學習系統的分級和防止對抗性圖像縮放攻擊進行了深入的回顧。他們的發現不斷提醒我們,AI 算法許多隱藏的方面和威脅還未被發現,導致這些影響在我們的日常生活中正變得越來越突出。
對抗性圖像縮放
當在許多實例上訓練時,機器學習模型創建不同類之間相似性程度的數學表達。例如,如果你訓練一個機器學習算法來區分熊貓和長臂猿,它就會嘗試創建一個統計模型來區分新圖像中的像素是更像熊貓還是長臂猿。
實際上,這些人工智能算法學習區分不同物體的方式與人類視覺的工作方式不同。大多數對抗性攻擊利用這種差異,在改變機器學習系統輸出的同時,進行人類肉眼無法察覺的細微調整。
例如,當你讓一個人描述他是如何從圖片中發現熊貓的,他可能會尋找一些目標的身體特征,比如眼睛周圍的黑色毛發,黑白相間的皮毛以及體型大小。他可能還會給出其他的背景,比如他希望看到熊貓在什么樣的棲息地,會擺出什么樣的動作姿勢等等。
而對于人工神經網絡來說,只要根據公式,通過計算機程序運行圖像的像素值提供正確的答案,就確信所看到的圖像確實是一只熊貓。換句話說,通過正確地調整圖像中的像素值,你也可以讓 AI 誤以為它看到的不是熊貓。
其中的細節在于,研究人員在圖像上添加了一層人眼幾乎覺察不到的噪聲。

當新的像素值通過人工神經網絡時,會產生從長臂猿的圖像中所期望的結果。而在人眼看來,左右兩幅圖像似乎是同一只熊貓。

研究人員在他們的論文中寫道:“盡管大量研究都在研究針對學習算法的攻擊,但目前為止,幾乎沒有人關注機器學習預處理中的漏洞。”但是,當經典的對抗性攻擊利用人工智能算法內部工作的特性時,圖像縮放攻擊就集中在機器學習流水線的預處理階段。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













