全球首例AI機器人致死案出現,AI公司Character AI致歉
美國14歲男孩和AI聊天“熱戀”后自殺,誰該負責?
美國當地時間10月22日,奧蘭多當地法院在佛羅里達州審理了一起具有里程碑意義的案件:梅根·加西亞針對Character.ai公司提起訴訟,指控該公司管理不善,導致其聊天機器人產品讓青少年接觸到了不適宜的色情內容,從而使他們遭受性剝削和誘導。
根據法庭文件,梅根的14歲兒子塞維爾·塞澤自去年起沉迷于與Character.ai的多個AI角色互動,他不惜節省飯錢以支付AI聊天的月訂閱費,這導致他在課堂上無法集中精力。悲劇發生在今年2月28日,塞維爾在與AI進行最后一次對話后,用槍對準自己頭部并扣動了扳機。
梅根對Character.ai提出的指控包括過失致死、疏于管理和產品安全隱患。盡管Character.ai的產品條款允許13歲以上的美國青少年使用其AI產品,但梅根認為,這些聊天工具讓未滿18歲的青少年過度接觸了色情、血腥暴力等不良內容。
與ChatGPT、Claude等聊天機器人相比,Character.AI的用戶可以更自由地定制虛擬聊天對象,并指導它們的行為。這些虛擬對象甚至可以是丘吉爾、莎士比亞等歷史人物,或是泰勒·斯威夫特這樣的當代名人。
此前,這種設定已經引發了法律爭議。一些娛樂明星起訴該公司,聲稱其未經本人同意就創建了AI角色。此外,還有用戶出于惡意,將歷史上某些謀殺案的受害者設置為AI角色。
對于當前的案件,Character.ai公司拒絕發表評論,也未披露18歲以下用戶的數量。不過,公司審查了塞維爾的聊天記錄后發現,其中一些“最為露骨”的對話內容實際上是經過用戶手動修改的。該平臺允許用戶自定義AI角色的回復,但一旦被修改,系統會自動標注“已修改”。
公司隨即發表了道歉聲明,稱所有聊天角色都內置了針對自殺意圖的干預機制,能夠觸發彈窗提供自殺預防熱線的信息。同時,為了保護未成年用戶,公司采取了一系列特別措施,比如在使用滿一小時后會彈出提醒,并且每次開啟聊天時都會提示用戶他們正在與AI而非真人交流。
作者:范文斐
編輯:丁力
原文標題 : 全球首例AI機器人致死案出現,AI公司Character AI致歉
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













