Anthropic 論文指出:少量樣本會使任何規模的 LLM “中毒”
2025-11-17 15:32
來源:
OFweek人工智能網
近日,Anthropic Alignment Science 團隊發現,只需 250 份惡意文檔即可在大語言模型(LLM)中產生 “backdoor“ 漏洞——無論是多大的模型規模或訓練數據。
盡管 130 億參數模型的訓練數據量是 6 億模型的 20 多倍,但同樣少量的中毒文檔都可能對兩者都產生 “backdoor” 效應。Anthropic 表示,數據中毒的攻擊可能遠超人們的想象,需要進一步研究數據中毒及其潛在的防御措施。
聲明:
本網站所刊載信息,不代表OFweek觀點。刊用本站稿件,務經書面授權。未經授權禁止轉載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 特斯拉Optimus Gen3量產在即,哪些環節最具確定性?
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 4 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 5 Tesla AI5芯片最新進展總結
- 6 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 7 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 8 2026,人形機器人只贏了面子
- 9 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 10 AI Infra產業鏈卡在哪里了?


分享













