AI 融入 BI 可期,“偏見”如影隨形怎破?
“偏見”:AI發現人為造成的不公平
在筆者翻譯的一篇文章中指出招聘、協作、銷售工具中的AI偏見無處不在。偏見是AI的致命弱點。而DataRobot的研究發現,在美國和英國,將近一半(42%)的AI專業人士“非常”或“極其”擔心AI偏見。AI可以在最意想不到的地方出現,沒有系統可以免疫。
根據領英(LinkedIn)的研究,43%的招聘人員和招聘經理表示,在招聘工具中引入AI的一個關鍵好處是它有消除人類偏見的潛力。然而,承諾將偏見最小化的人工智能工具,也可能在招聘過程中注入偏見。以谷歌的招聘廣告算法為例,更多向男性顯示高薪職位。
的確在招聘和銷售等領域容易產生偏見,但是偏見是AI帶來的嗎?
“AI的偏見是數據原生的偏見。”葉松林強調,假如數據里面多數男性的工資本身即高出女性10%,AI在讀取數據后,便會提供一個男性薪資高出10%的建議。
“這種偏見并不是說機器造成的,而是機器告訴你,世界上存在不平等的問題。這種不公平是過去長久以來人造成的。恰恰是AI把這個問題揭示出來,以前人們可能沒有意識到這個問題,AI把這個問題有效地揭示出來之后,人在做決策的時候,恰恰可以有意糾正它的不公平性。”高云龍進一步指出偏見本身就是數據所潛在的客觀規律。
所以Tableau強調AI只是輔助公司做決策,可以提一些意見,對公司而言人才是最重要的。
Tableau 數據科學家兼主任軟件工程師Rachel Kalmar指出:“AI 項目中最困難的環節之一就是確定您要提出的問題。”協作式方法可以揭示業務決策的哪些環節適合使用AI,哪些環節需要人工干預。假設要開一家新的零售商店,但以前從未開過這樣的商店。基于 AI 的系統可以根據該地區的人流或人口統計學特征來提供建議,幫助預測商店的預期銷售額。但仍然需要領域專家的幫助,這些人可以在位置可見性、競爭對手信息或停車位情況等方面填補空缺。要讓機器學習建議實現其價值,決策必須由人來制定。正如 Tableau 的AI 主管產品經理 Richard Tibbetts 解釋的那樣:“AI 的出現并不意味著算法會告訴您如何做生意。真正幫助組織采用和信任AI 的是領域專家。”
由大數據、云計算、AI等技術推動著數字化世界的構建,而數字化世界所出現的諸多問題同樣是現實社會的映射,或許有數據的地方就免不了存在偏見和不公,消除偏見是一個長久的命題。我們仍然可以做一些力所能及的事情,比如加強監督,讓多樣化的團隊構建軟件工具,仔細檢查數據健康度,加強內外部審計等。說到底,人與AI之間如何更好的協作取長補短才能有效消除更多偏見需要更多的探索。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













