免费久久国产&夜夜毛片&亚洲最大无码中文字幕&国产成人无码免费视频之奶水&吴家丽查理三级做爰&国产日本亚欧在线观看

訂閱
糾錯
加入自媒體

下次吃了毒蘑菇,別怪豆包傻

用戶搜黎元洪,豆包給出了用范偉PS的照片。

圖片

(豆包搜索黎元洪出來范偉的PS照)

這是AI的常見錯誤,讓人意外的是:這事兒竟然也上了熱搜。

這不是AI第一次干這種「蠢事」,也不會是最后一次。之前,有小朋友拿著一個老鼠夾問AI是什么東西,AI說是「廢棄卡丁車小玩具」,說得有鼻子有眼:「方方的底盤、金屬的結(jié)構(gòu)」,結(jié)果孩子手指被夾了;有用戶丟給AI毒蘑菇,AI判定為可食用杏鮑菇,結(jié)果……遇到這樣的情況,AI都會誠懇道歉。

圖片

(網(wǎng)友總結(jié)“豆包型人格”)

是豆包越來越傻了嗎?不是。當(dāng)豆包月活漲到3.45億時,哪怕錯誤率是恒定的,分母膨脹了,分子自然會變大,翻車案例就會增多,并且每一次都會引發(fā)豆包用戶們的“共鳴”,吵上熱搜。所以說,AI翻車段子的數(shù)量,其實是AI滲透率的反向指標(biāo)。

前幾年,總有人說百度地圖傻,但也有人說高德地圖笨,其實沒有誰比誰更聰明:看你用哪個App多,用得多了,總會遇到導(dǎo)航出錯的情況。

AI搜索騙你,是因為互聯(lián)網(wǎng)騙了AI

這次豆包錯將范偉當(dāng)黎元洪,官方回應(yīng)說是跟一部電影選角有關(guān):范偉和黎元洪確實長得像,前者的PS圖當(dāng)年被媒體大量報道、全網(wǎng)瘋傳,部分圖庫和百科頁面也曾誤收錄,所以AI檢索時優(yōu)先命中了這些高頻傳播的錯誤圖片。

所以AI經(jīng)常犯錯的根本原因是:互聯(lián)網(wǎng)的湯底里本來就沉著一堆錯料,AI拿勺子舀的時候,剛好把最大塊的那坨舀上來了。

這不是什么“豆包的問題”,這是“所有AI的問題”,并且AI生成的內(nèi)容被網(wǎng)友海量發(fā)布到網(wǎng)上,交叉污染。NewsGuard在2025年8月發(fā)布的數(shù)據(jù)顯示,10款主流AI工具在新聞話題上重復(fù)虛假信息的比例是35%,而一年前只有18%。GPT-4.5的生成答案中,缺乏依據(jù)的主張比例達(dá)到了47%,Perplexity深度研究工具甚至出現(xiàn)了97.5%的驚人數(shù)字。

換言之,你看到的每一個AI搜索答案,從統(tǒng)計學(xué)原理上就已經(jīng)包含了不可消除的噪聲。

有個朋友前幾天和我說,現(xiàn)在AI搜索99%是對的,1%的結(jié)果犯傻,我們只要識別出這1%就可以放心使用AI搜索。查了一組數(shù)據(jù),發(fā)現(xiàn)AI搜索準(zhǔn)確率比我們預(yù)期的還要低。根據(jù)Google內(nèi)部測試數(shù)據(jù),在4326條樣本中,Gemini AI概覽準(zhǔn)確率已達(dá)91%,雖然非常高,但依然有每10條就錯1條的可能。中國AI搜索面臨的實際情況更復(fù)雜,「自媒體平臺」做號黨的內(nèi)容創(chuàng)作制度讓中文互聯(lián)網(wǎng)的文本污染尤其嚴(yán)重,很多新媒體平臺今天的內(nèi)容已是滿目瘡痍,大量的AIGC內(nèi)容以及AI洗稿偽原創(chuàng)內(nèi)容充斥其間,堪稱屎山一座。

從技術(shù)上,考慮到數(shù)據(jù)質(zhì)量和大模型技術(shù)原理,99%的準(zhǔn)確率對AI搜索是一個遙不可及的目標(biāo),100%的準(zhǔn)確率如同「絕對零度」:可不斷接近,但永遠(yuǎn)無法達(dá)到。

更何況,世界的某些問題本就沒有唯一正確答案。AI的知識來自互聯(lián)網(wǎng),互聯(lián)網(wǎng)的信息來自人類,人類的知識不是全都已經(jīng)明確的。斯坦福大學(xué)2025年發(fā)表在《自然·機(jī)器智能》上的論文說得很直白:最新的大語言模型在驗證事實性數(shù)據(jù)時的平均準(zhǔn)確率最高只到91.5%,而面對用戶的錯誤信念時,AI幾乎無法可靠區(qū)分“他堅信的”和“事實”。這并不讓人意外——如果人類自己都沒搞明白有些情況是“我以為的事實”還是“事實”,我們又如何要求AI全都搞明白呢?

AI搜索好傻,為何人類卻越來越上癮?

真正有意思的問題不是“AI為什么犯錯”,而是“這么容易犯錯,為什么人們還在用”。

人類不是沒有選擇。拒絕AI搜索,起碼能用百度、Google等未摻和任何AI結(jié)果的傳統(tǒng)搜索。然而,每天被罵犯傻翻車的豆包月活3.45億,千問、文心、元寶、deepseek的用戶規(guī)模也在高速增長,AI搜索吞噬傳統(tǒng)搜索的進(jìn)程肉眼可見。

傳統(tǒng)搜索引擎只負(fù)責(zé)提供一長串網(wǎng)頁鏈接,完成相關(guān)性排序,決定誰靠前。至于結(jié)果哪個是對的,由用戶自己打開網(wǎng)頁一個個分辨,效率低下。AI搜索將用戶獲取信息的效率提高了幾個數(shù)量級,因為它只提供「唯一」答案,但理論上來說這個結(jié)果必須是100%準(zhǔn)確。

但「唯一答案」本就是一種低容錯設(shè)計。如果用戶將決策100%建立在可能錯誤的答案之上,一旦出問題就會很嚴(yán)重,輕則上熱搜鬧笑話,重則食用毒蘑菇去醫(yī)院。

這就像你問路:百度遞給你一張地圖讓你自己找,走錯了你認(rèn)了還對百度心懷感恩;豆包告訴你往東走第三個路口左轉(zhuǎn),你走到發(fā)現(xiàn)方向反了,哪怕豆包是無心之失也會被你回去痛罵一頓。

傳統(tǒng)搜索追求的是「召回率」高,搜出來的東西跟搜索詞能不能沾上邊;AI搜索追求的是「高效率」和「準(zhǔn)確率」。既然AI搜索當(dāng)前準(zhǔn)確率才90%左右(以谷歌gemini為基準(zhǔn)),為什么人們還是越來越愛用,而不是在“給你一堆結(jié)果你自己判斷”的傳統(tǒng)搜索逗留呢?

我在這里拋出一個暴論:人類對信息精確度的需求,實際上是被高估的。

在日常生活中,99%的搜索場景并不是用來做生死攸關(guān)的判斷。查天氣、做旅游攻略、研究護(hù)膚方法、整理想法、看八卦……信息稍微有些偏差并不會造成嚴(yán)重后果。就拿黎元洪這事來說,對99%的使用場景而言,這就是個茶余飯后的笑談,用戶不會因為這個搜索結(jié)果重新看待整個晚清史。

但是,如果一個人做學(xué)術(shù)研究、投資決策、醫(yī)療方案用AI搜索,那就不能怪AI犯傻。因為這些場景下,用戶得到的信息必須100%準(zhǔn)確,AI搜索「答案僅供參考」。

對于大多數(shù)搜索場景來說,91%的準(zhǔn)確率足夠用了。而且退一步說,在沒有AI搜索的年代,你在小紅書上看減肥筆記、在搜索引擎搜「皮膚科好的醫(yī)院」,看到的信息就是真的嗎?說不定是廣告。還有,手機(jī)能不能放枕頭下、大姨媽來了能不能喝冷水,這些問題本就沒有標(biāo)準(zhǔn)答案,AI不過是反映了人類的知識混亂。

正是這種普遍存在的“91%準(zhǔn)確率夠用”的低風(fēng)險需求,讓AI搜索日益普及:它的錯誤率雖然高,但只要錯誤不是徹底致命的,人們總是更在意「效率」而不是「精確」。

當(dāng)你用AI搜索更復(fù)雜、更嚴(yán)肅、更「物理」的決策問題時,這個邏輯才徹底失效。比如你要確認(rèn)某種蘑菇能否食用時……問題切入到生命、健康、財產(chǎn)、風(fēng)險和決策地帶時,91%的準(zhǔn)確率可能會讓你付出沉重的代價。

所以現(xiàn)在醫(yī)療、法律、金融這種「高后果」場景領(lǐng)域,出現(xiàn)了「專用AI」而非「通用AI」,比如面向醫(yī)療健康場景的螞蟻阿福,但即便是它們也無法保證100%不出錯。

責(zé)任在你:所有系統(tǒng)都有bug,AI也不例外

兩千年前,孟子說「盡信書不如無書」,既然書籍上的知識都不一定是對的,我們又如何敢100%絕對信任AI?「盡信AI不如無AI」。

有人開著一輛帶輔助駕駛功能的電車,在高速上雙手離開方向盤刷朋友圈,出事后甩鍋給車企,但廠商把“駕駛員是操作車輛的第一責(zé)任人”寫進(jìn)了用戶協(xié)議,“小字沒看到”也無法轉(zhuǎn)移自己的責(zé)任。

在AI搜索獲取信息這個維度上,情形是完全一樣的。當(dāng)人類越來越依賴AI時,我們不僅要期待廠商訓(xùn)練AI更準(zhǔn)確,更要努力訓(xùn)練自己的判斷能力。在智商、情商后,AI時代人類的“信商”將越來越重要:也就是真假信息甄別的能力素養(yǎng)。沒有任何公司能給你一個100%準(zhǔn)確的AI,你要做的就是把方向盤緊緊握在自己手里。

任何系統(tǒng)都有bug,任何AI吐出來的結(jié)果都可能是錯的。記住這個常識,是正確使用AI的第一步。

回到豆包身上。黎元洪變范偉其實并不影響“豆包該不該收費(fèi)”的辯論,關(guān)于「好的AI為什么一定要收費(fèi)」我已經(jīng)在另外一篇文章《付費(fèi)版68元/月!豆包也撐不住了?》中討論了。澎湃新聞?wù)f在AI大規(guī)模收費(fèi)之前,或許應(yīng)該“打掃干凈屋子再請客”。問題是,AI的屋子永遠(yuǎn)都掃不干凈,掃干凈了還有灰塵。ChatGPT收費(fèi)版也不能確保100%準(zhǔn)確,因為沒有AI能做到100%絕對準(zhǔn)確。就算是用于創(chuàng)作等生產(chǎn)力場景,AI結(jié)果也不能、不應(yīng)拿來就用。

對結(jié)果的判斷、審核、識別也就是「正確使用」,是人在AI時代的核心價值。

所以:下次吃了毒蘑菇,千萬不要怪豆包。

       原文標(biāo)題 : 下次吃了毒蘑菇,別怪豆包傻

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號