AI算法招聘容易讓求職者啞巴吃黃連?
招聘決策還充滿了人為偏見,導致一些組織將至少部分員工搜索工作交給外部技術公司,后者使用機器學習算法篩選申請人。這種思維認為,如果人類很難找到最適合自己公司的員工,那么一臺機器可能會做得更好,更有效。
但是,康奈爾大學計算機與信息科學學者團隊的最新研究向有關這些算法以及開發和使用它們的技術公司提出了疑問:自動篩選過程的公正性如何?算法是如何構建的?誰設計的?按什么數據支撐的?他們發現,在這個新興領域中,公司傾向于青睞模糊不清而不是公開透明。在算法領域上缺乏共識,缺乏“偏見”和“公平”的正式定義,使得科技公司能夠根據自己的條件定義算法偏見。
“我認為算法決策工具的創建者越來越認識到,他們需要特別注意它們的算法工具是怎樣影響人們的”計算機科學的博士生,Manish Raghavan說。 “我們研究中遇到許多技術供應商都承認這種了(影響),他們正在采取措施解決偏見和歧視。但是,在如何正確執行方面明顯缺乏共識或指導。”
為了了解這些工具,研究人員搜尋了可用的公共信息,以及公司采取了哪些措施來評估和緩解算法偏差。受知識產權法保護,科技公司不必披露任何有關其算法模型的職前甄選信息,但也有些公司選擇了提供信息。研究人員研究了19個專門從事算法的職前篩選的供應商,對公司網站,網絡研討會和任何可用的文檔進行了梳理,以深入了解供應商的要求和做法。他們發現,很少有供應商提供有關如何驗證評估或披露有關如何減輕算法偏差的具體信息。
Raghavan說:“許多供應商都沒有提到消除偏見,這尤其令人擔憂,因為他們根本沒有考慮偏見。”即使他們使用“偏見”和“公平”這樣的術語,但這些術語也可能是模糊的。供應商可以聲稱其評估算法是“公平的”,而無需透露公司如何定義公平性。
那難道算法不適合篩選申請人嗎?并不是的,盡管算法存在許多缺陷,但確實有潛力為更公平的社會做出貢獻,我們需要做進一步的工作以確保我們能夠理解和減輕它們帶來的偏見。畢竟,從我們多年經驗來說,求職者面試本身就會遭受各種各樣的歧視。該團隊希望這份研究能讓算法公司對職前評估中道德行為有著更清晰的認知。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













