免费久久国产&夜夜毛片&亚洲最大无码中文字幕&国产成人无码免费视频之奶水&吴家丽查理三级做爰&国产日本亚欧在线观看

訂閱
糾錯
加入自媒體

人工智能在工作場景下的新興技術及倫理問題

2018-12-14 10:20
來源: 企業網

以員工為中心的人工智能的確帶來了巨大的好處,但短期內的收益也可能會帶來反作用,因為它可能會帶來員工士氣低落、員工流動率上升、生產率下降等問題,并引發公共關系方面的反彈。

人工智能正在迅速的進入工作場所。因為人工智能能夠在瞬間做出明智的預測,并以人類無法匹敵的規模完成特定任務,因而正在被應用于從業務流程到分析的所有領域。

雖然人工智能對工作場所的影響的大部分審查都集中在適合替換的工作類型上,但是人工智能專門針對勞動力問題的努力,比如進行求職者篩選和績效評估,出現了特別棘手的問題——尤其是當機器人開始進入管理領域的時候。

誠然,以員工為中心的人工智能具有顯著的優勢,但短期內人工智能推動的生產率或安全性的提高,從長遠來看可能會適得其反,員工不滿和士氣低落都會導致更高的人員流動率,并最終導致生產率的下降。此外,人工智能的影響還可能會導致公關問題,讓客戶、投資者和求職者失去興趣,更不用說可能違反工作場所隱私的法律和合規問題了。

以下是對工作場所出現的新人工智能技術的研究,它們是如何工作的,它們的意圖是什么,以及它們可能會在何時越界。

篩選你的工作申請

上個月,亞馬遜(Amazon)取消了一款基于人工智能(AI)的招聘工具,因為它對女性存在偏見。事實證明,當一家公司的開發者大多是白人男性時,他們開發的人工智能得出的結論就很可能是,白人男性比其他人群更適合這家公司。如果將性別從考慮范圍中剔除,人工智能也將找到實現同樣目標的代理措施。

但這并沒有阻止其他公司將人工智能應用于簡歷篩選。例如,Oracle正在推出自己的工具來尋找“最適合”的候選人,Oracle負責自適應智能應用程序的副總裁Melissa Boxer說。

“我們總是喝著自己的香檳,”Boxer表示。甲骨文(Oracle)是一家數據公司,希望向其客戶銷售各種人工智能工具。 “這是不可談判的問題之一。我們在公司內部推出了我們正在開發的產品。”

Boxer說,Oracle雇傭了很多人,所以這是一個很好的起點。但人力資源員工不得不費力處理大量的員工。“我們如何才能讓這項工作變得更輕松,并確保我們雇傭了合適的人才?”

此外,但無意識的偏見、數據隱私和其他道德問題也是其中人們最關心的問題。

“我們有一個道德委員會,”Boxer說。 “他們負責建立機器學習公平性的最佳實踐,以及相關的問責制和透明度概念。”

例如,其中包括哪些類型的個人數據可能會或可能不會用作學習過程的一部分的指導原則。

她還表示,Oracle致力于讓人工智能變得可以解釋——努力解決人工智能的“黑箱”問題。“我們已經在應用程序中設置了一系列監督控制措施,以促進透明度和問責制。”

Boxer說,Oracle還計劃推出向員工提供推薦服務的工具。例如,銷售人員可能會得到關于下一位最有希望成為潛在客戶的建議。Boxer說,雖然使用人工智能來建議員工要承擔的任務可能會產生一系列負面影響,但Oracle的目標是讓員工更容易完成工作。

“這不僅僅是讓AI來提醒你需要做的事情,”她說。 “它讓員工更深入的了解了他們的銷售渠道。以及我們是否專注于正確的機會?”

接聽服務臺電話

在電影中,當人工智能與人類對話時,結局往往很糟糕。比如,Hal 9000,還有終結者。但這也會發生在現實生活中。最著名的是,在2015年,微軟的Tay聊天機器人僅僅在互聯網上曝光了幾個小時,就變成了一個種族主義者。

大多數公司正在以更可控的方式部署聊天機器人——例如,用于客戶服務或技術服務臺。

本月,微軟(Microsoft)宣布將正面解決這個問題,發布了一套建立負責聊天機器人的指導方針。

例如,該公司表示,用戶應該清楚,他們是在與聊天機器人交談,而不是與另一個人交談。當對話進行得不順利時,聊天機器人應該迅速將問題轉到真人身上。

其中還包括了一個關于確保機器人有內置的安全措施來防止其被濫用,并對濫用或攻擊性用戶做出適當反應的章節。

“承認你的機器人的局限性,確保你的機器人堅持著它的設計目的。”微軟公司負責會話AI的副總裁Lili Cheng在一篇博客文章中寫道。 例如,一個專為點披薩而設計的機器人應該避免涉及種族、性別、宗教和政治等敏感話題。

這些準則還涉及了可靠性、公平性和隱私問題。

評估你的表現

今年夏天,彭博社(Bloomberg)報道稱,IBM正利用其人工智能平臺沃森(Watson)來評估員工的表現,甚至是預測其未來的表現。然后,這些評級將被經理們用于獎金、薪酬和晉升決策。

IBM聲稱其準確率為96%,但是在員工評估中引入人工智能并提出注意事項可能會引起關注。畢竟,你需要知道當它出錯時你該怎么辦?還有很多事情可能會出錯,特別是如果這項技術沒有被正確推廣的話。

“我們可以設計一個用于績效評估的人力資源系統,該系統可以與智能算法一起運行,從個人過去的行為中學習,或者進行某種測試來衡量他們的決策能力,”來自瑞爾森大學的一位教授表示。 “無論它是什么,如果設計不當,它就可能會有很大的偏差,而且最終可能會給出錯誤的建議。”

為了避免問題,任何這樣的系統都應該從一開始就具有透明度。

“這個模型的每一步都應該得到公司的驗證,所以他們不會處理任何黑盒算法,”她說。對于內部開發的系統和商用工具來說都是如此。

她表示,該算法的大部分設計也可能是主觀的,比如決定是否推薦時要考慮哪些因素。她說,這些設計決策需要與使用該技術的人分享,并且需要被相關人員理解。

她說:“如果你還記得金融危機,那里就涉及到了人們無法理解和審計的復雜的數學問題。他們看不出到底出了什么問題。”

除了檢查算法是否如設計的那樣工作,公司還應該確保使用了正確的數據集,并且系統能夠識別出何時存在數據不足,或者數據不合適的問題。

對于績效評估,考慮到每個工作類別需要不同的標準,并且這些標準可能會因部門或其他因素而變化,數據集在許多情況下可能不充分,或者存在過度代表某些類別而犧牲其他類別的問題。

Bener說:“人工智能術語中還有一種叫做概念漂移的東西,這意味著今天我的模型假設是正確的,但是事情發生了變化,我的數據發生了變化,我的環境發生了變化,我的客戶也發生了變化。因為整個系統也就有了一個漂移,我需要重新審視算法來校準它并再次進行優化。”

“審計非常重要,”她說。“但我認為目前的審計系統沒有很好地涵蓋這些算法,因為受過培訓的人不夠多。”

她表示,審計師需要10到15年的經驗,才能熟練地評估人工智能算法,而且現在還為時過早。“我們沒有那樣的人。”

管理你的工作

擔心你的老板可能會被人工智能取代,而你很快就要為機器人工作?對一些人來說,這種未來已經到來。

擁有15年工作經驗的軟件開發人員Paulo Eduardo Lobo就職于巴西巴拉那州政府。但最近,他還在科技供應商Zerocracy做自由職業者,該公司用人工智能取代了項目經理。

AI會根據開發人員的聲譽和其他因素分配項目任務。他們還會設定時間表,預測交付時間,并計算預算。

Lobo說:“我們不需要開會或人為干預來給團隊成員分配任務。”此外,他還說,這有助于鼓舞士氣。“我們沒有人試圖取悅項目經理,因為這是一個人工智能,另一方面,人工智能也不會浪費時間以試圖取悅團隊成員或提高士氣。”

它有助于公司使用一種編程方法,使項目可以很容易地分割成小任務,通常持續時間不超過30分鐘。

但Lobo說,有些任務還不能自動化,例如確定項目的范圍。 “必須有人來定義我們的軟件將要做什么,以及我們首先要做什么,”他說。此外,人們仍然需要評估代碼質量,并在出現問題時承擔責任。

Zerocracy的軟件架構師Kirill Chernyavsky表示,如果某個任務是由不急于完成的開發人員承擔的,那么可能還需要人工干預。

人工智能驅動的項目管理是一個新的想法,但可能很難推廣。“客戶更喜歡傳統的管理,因為時間證明了這一點,”他說。

總部位于帕洛阿爾托的Zerologin成立于兩年前,自去年春天以來一直在使用其AI系統,現在已經有五個客戶在使用該系統。但首席執行官Yegor Bugayenko表示,開發人員已經為AI工作了大約一年。目前有60名開發人員在這個平臺上工作,其中一些是Zerocracy的員工,一些是自由職業者,其余的是客戶公司的員工。

“最初,當人們開始在機器人管理下工作時,他們會感到驚訝,并產生懷疑,”他說。“他們認為電腦不可能告訴他們該做什么。”

1  2  下一頁>  
聲明: 本文系OFweek根據授權轉載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內容、版權以及其它問題的,請聯系我們。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號