當AI學會偏見 企業(yè)當為技術應用劃線
你對AI有什么印象,沒有感情、不會犯錯,還是公正客觀?但總之,AI是不食人間煙火的,既不會閃耀人性的光輝,也不存在“七宗罪”。實際上,AI并非那么沒有人性,不過這并非一件好事。AI獲得智能的同時,也學會了人類的“歧視”與“偏見”。
AI偏見廣泛存在
麻省理工學院媒體實驗室的Joy Buolamwini曾研究過各個領先科技公司的面部識別系統(tǒng),研究發(fā)現(xiàn),所有的系統(tǒng)在識別男性面孔和淺色皮膚的面孔上擁有較高的準確率,其中,淺色皮膚男性的錯誤率不超過1%,而深色皮膚女性的平均識別錯誤率則高達35%。
提及對整個安防行業(yè)產(chǎn)生深刻影響的AI技術,人臉識別肯定榜上有名,但AI人臉識別的這類偏見,也已經(jīng)滲入了安防領域。安防領域中,帶有偏見的AI可能會讓清白無辜者蒙冤,受到無理審查,這并非杞人憂天。
在英國,曾有一名黑人男性因人臉識別技術失誤而被誤認為嫌犯,在公眾場合遭到搜身檢查。Big Brother Watch UK報告也顯示,倫敦警察廳使用的面部識別技術有超過90%的性別識別錯誤率。
AI為何會產(chǎn)生偏見?
當前人工智能還處于弱人工智能階段,其“偏見”顯然取決于背后訓練算法訓練的數(shù)據(jù)。如上所述,如果AI訓練數(shù)據(jù)庫中,白人、男性比黑人、女性更多,且膚色較深的人多與違法相關的場景同時出現(xiàn),就會導致AI產(chǎn)生偏見,這是訓練集和測試機特征分布不一致導致的,在技術領域被稱為“過擬合”。
目前針對算法“過擬合”,已經(jīng)有權值衰減、交叉驗證、添加正則項等方法。而關于如何解決算法歧視問題,科技界則眾說紛紜。曾有人提出開發(fā)公正透明的算法,讓公眾進行監(jiān)督,但這一方法壁壘較高,需受過專業(yè)訓練才能夠進行監(jiān)督。不過,現(xiàn)在已經(jīng)有不少的科學家在努力開發(fā)出一套“公平公正”的算法系統(tǒng)。
科技向善 AI應服務于人類
無論哪種方法,都不可能立竿見影地糾正AI偏見,因此,科技公司以及組織應當避免將“帶有明顯歧視性質(zhì)的算法”在不經(jīng)測試之下應用到現(xiàn)實情景中。AI并無善惡之分,但人類需要推動科技向善。
在安防領域,公安部門應用AI技術關愛孤寡老人,以往民警需要每天上門查看孤寡老人狀態(tài),現(xiàn)在可以通過人臉、人體及軌跡技術確認孤寡老人活動是否有異常;AI跨年齡人臉識別則可以憑借一張泛黃照片找回被拐十年的兒童。
通過一張3歲的泛黃照片,騰訊優(yōu)圖利用AI技術突破“跨年齡人臉識別”,助力警方尋回被拐十年兒童。騰訊董事會主席馬化騰也多次在公開演講中闡釋“科技向善”的愿景與使命。
而在未來的算法開發(fā)過程中,應該對算法開發(fā)者進行適當?shù)摹八惴▊惱怼苯逃⑶掖_定一些算法的“基本準則”,如同“機器人永不能傷害人類”一樣。來源:安防展覽網(wǎng)
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產(chǎn)聯(lián)看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩(wěn)、細節(jié)炸,設計師慌了
- 3 6000億美元估值錨定:字節(jié)跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發(fā)現(xiàn)它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續(xù)扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰(zhàn)略
- 10 AI Infra產(chǎn)業(yè)鏈卡在哪里了?
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結構工程師 廣東省/深圳市


分享













