免费久久国产&夜夜毛片&亚洲最大无码中文字幕&国产成人无码免费视频之奶水&吴家丽查理三级做爰&国产日本亚欧在线观看

訂閱
糾錯
加入自媒體

AI 融入 BI 可期,“偏見”如影隨形怎破?

2020-05-14 09:14
IT168
關注

“偏見”:AI發現人為造成的不公平

在筆者翻譯的一篇文章中指出招聘、協作、銷售工具中的AI偏見無處不在。偏見是AI的致命弱點。而DataRobot的研究發現,在美國和英國,將近一半(42%)的AI專業人士“非常”或“極其”擔心AI偏見。AI可以在最意想不到的地方出現,沒有系統可以免疫。

根據領英(LinkedIn)的研究,43%的招聘人員和招聘經理表示,在招聘工具中引入AI的一個關鍵好處是它有消除人類偏見的潛力。然而,承諾將偏見最小化的人工智能工具,也可能在招聘過程中注入偏見。以谷歌的招聘廣告算法為例,更多向男性顯示高薪職位。

的確在招聘和銷售等領域容易產生偏見,但是偏見是AI帶來的嗎?

“AI的偏見是數據原生的偏見。”葉松林強調,假如數據里面多數男性的工資本身即高出女性10%,AI在讀取數據后,便會提供一個男性薪資高出10%的建議。

“這種偏見并不是說機器造成的,而是機器告訴你,世界上存在不平等的問題。這種不公平是過去長久以來人造成的。恰恰是AI把這個問題揭示出來,以前人們可能沒有意識到這個問題,AI把這個問題有效地揭示出來之后,人在做決策的時候,恰恰可以有意糾正它的不公平性。”高云龍進一步指出偏見本身就是數據所潛在的客觀規律。

所以Tableau強調AI只是輔助公司做決策,可以提一些意見,對公司而言人才是最重要的。

Tableau 數據科學家兼主任軟件工程師Rachel Kalmar指出:“AI 項目中最困難的環節之一就是確定您要提出的問題。”協作式方法可以揭示業務決策的哪些環節適合使用AI,哪些環節需要人工干預。假設要開一家新的零售商店,但以前從未開過這樣的商店。基于 AI 的系統可以根據該地區的人流或人口統計學特征來提供建議,幫助預測商店的預期銷售額。但仍然需要領域專家的幫助,這些人可以在位置可見性、競爭對手信息或停車位情況等方面填補空缺。要讓機器學習建議實現其價值,決策必須由人來制定。正如 Tableau 的AI 主管產品經理 Richard Tibbetts 解釋的那樣:“AI 的出現并不意味著算法會告訴您如何做生意。真正幫助組織采用和信任AI 的是領域專家。”

由大數據、云計算、AI等技術推動著數字化世界的構建,而數字化世界所出現的諸多問題同樣是現實社會的映射,或許有數據的地方就免不了存在偏見和不公,消除偏見是一個長久的命題。我們仍然可以做一些力所能及的事情,比如加強監督,讓多樣化的團隊構建軟件工具,仔細檢查數據健康度,加強內外部審計等。說到底,人與AI之間如何更好的協作取長補短才能有效消除更多偏見需要更多的探索。


<上一頁  1  2  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號