圖片一縮放,AI就把熊貓“認”成長臂猿了,這么傻的AI該如何保護?
示例二:
假設你正在訓練一個神經網絡來識別停車標志的圖像,以便以后在自動駕駛汽車時使用。
惡意攻擊者可以破壞訓練數據,使其包含經過修補的停車標志圖像,這些圖像被稱為“對抗性補丁”。經過訓練后,神經網絡把該補丁上的所有標志與目標聯系起來。
這樣會導致自動駕駛汽車把一些隨機的標志當作停車標志,或者更糟的是,進行錯誤分類并繞過真正的停車標志。

保護機器學習模型
TU Braunschweig 的研究人員在其論文中強調,因為大多數機器學習模型使用的是少數流行的圖像縮放算法之一,所以圖像縮放攻擊對 AI 來說是一個特別嚴重的威脅。
這使得圖像縮放攻擊“與模型無關”,意思就是它們對目標人工智能算法類型不敏感,而單一的攻擊方案可以應用于整個范圍的機器學習算法。相比之下,經典的對抗性例子是為每種機器學習模型設計的,如果目標模型發生輕微變化,攻擊極有可能不再有效。
Chen 在論文中說道:“與白盒對抗性攻擊相比,圖像縮放攻擊需要更少的信息(只需要知道目標系統使用了何種縮放算法),所以從攻擊者的角度來看,它是一種更實用的攻擊。”“然而,它仍然沒有不需要目標機器學習模型信息的黑盒對抗性攻擊實用。”其中,黑盒對抗性攻擊是一種通過觀察機器學習模型的輸出值來產生對抗性擾動的高級技術。
Chen 接著在文章中承認,圖像縮放攻擊確實是一種生成對抗性實例的有效方法。但他補充道,縮放操作并不是都出現在每個機器學習系統中。他說:“圖像縮放攻擊僅限于基于圖像且具有縮放操作的模型,但是在沒有縮放操作和其他數據模式的圖像模型中也可能存在對抗性實例。”對抗性機器學習也適用于音頻和文本數據。

從積極的角度來看,對抗性圖像縮放的單一性使得更好地檢查攻擊和開發保護機器學習系統的新技術成為可能。
TU Braunschweig 的研究人員在文中寫道:“由于機器學習模型的復雜性,針對學習算法的攻擊仍然難以分析,但定義堅挺的縮放算法結構使得我們能更全面地分析縮放攻擊并開發有效的防御技術。”在他們的論文中,研究人員提供了幾種阻撓對抗性圖像縮放攻擊的方法,包括平滑核函數的權重縮放算法以及可以消除篡改像素值影響的圖像重建過濾器。
“我們的工作為機器學習中預處理的安全性提供了新的見解,”研究人員寫道。“我們相信,有必要進行深入的研究工作,從而確定和排除數據處理不同階段的漏洞,同時加強以學習為基礎的系統的安全性能。”讓機器學習算法對對抗性攻擊具有魯棒性已成為近年來一個較為活躍的研究領域。對抗性實例除了用于攻擊之外也被用于模型訓練,以增強模型的健壯性。因此,為了進行對抗性模型訓練,不同類型的對抗性攻擊實施是有益的。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













