免费久久国产&夜夜毛片&亚洲最大无码中文字幕&国产成人无码免费视频之奶水&吴家丽查理三级做爰&国产日本亚欧在线观看

訂閱
糾錯
加入自媒體

人工智能應用上的九大障礙

2019-03-11 09:22
來源: 企業網

領導目標的錯位

不幸的是,高管的價值往往取決于其預算規模和下屬人數。德勤公司的Katyal表示,首席信息官工作是否成功不需要按其下屬人數或預算來衡量,而需要通過其業務優勢來衡量。

首席信息官是否幫助公司降低成本或提高收入·首席信息官是否幫助公司提高了自身所持有數據的價值?他說,這些工作很難衡量,但這種轉變正在開始。 “首席信息官的獎勵機制正在發生變化,盡管速度還不夠快!

Vic Bhagat親眼目睹了這一變化。他曾在通用電氣(GE)多家機構擔任了20年的首席信息官,之后在易安信公司(EMC)擔任首席信息官,在該公司時其下屬有26,000人。他的下一個首席信息官工作是在威瑞森公司(Verizon),在這里他管理3500人。

他說,當他在更換工作時,人們一直在問他一些錯誤的問題。

“當獵頭公司給我們打電話時,第一個問題是你的團隊有多少人,你的預算是多少,你管理的應用程序有多少?”他說。“這些都是錯誤的衡量指標。這些指標會將錯誤的行為推向錯誤的結果!

他說,使用人工智能來將業務流程自動化,降低成本,簡化IT運營工作,這些都是對公司有利的結果。

他說,如果做得好,這實際上可以保護就業!叭绻铱梢詫⑷粘,嵥楣ぷ髯詣踊蛿底只斯ぶ悄芸梢宰鲞@些工作——我可以讓那些被這一工作解放出來的人員去處理客戶流程工作,將那些工作數字化,然后創造出優異的客戶體驗!

現在,這些人是創收周期的一部分,而不是業務支出。這可以在預算談判過程中產生重大影響。

“如果我可以將這些人員部署在對業務至關重要的工作上,那么業務人員就會站起來說,你最好不要碰這些人,因為這對我們現在正在做的事情至關重要,”他說。

衡量并證明商業價值

要證明人工智能計劃的商業價值可能具有挑戰性,在德勤公司的調查中,30%的受訪者認為這個商業價值問題是人工智能應用的三大障礙之一。

一個問題是公司通常是先實施該技術,然后尋找其可以解決的問題,而不是從業務需求入手。

“許多組織認為他們需要聘請數據科學家,讓他們來處理數據方面的工作,”位于亞利桑那州坦佩(Tempe)的技術咨詢和系統集成公司Insight的數字創新副總裁馬特·杰克遜(Matt Jackson)說!暗憧床坏竭@對組織產生任何直接影響!

高德納公司分析師惠特·安德魯斯(Whit Andrews)表示,對于組織來說,基于項目內在性質而不是所使用的技術來衡量商業價值,這是非常重要的。

“你會想說,它改善了客戶體驗,而這就是我們所知道的,”他說!盎蛘咚搱罅宋覀冊诰S護方面所做的開支,這就是證據。”

法律及監管風險

對于那些關注人工智能的企業來說,法律和監管風險是一個重要問題,特別是那些處于受監管行業的企業。Raghav Nyapati說,一個問題是人工智能算法缺乏透明度,他最近在一家全球十大銀行負責AI項目,現在正在啟動一家金融科技創業公司。

“這個模型是一個黑盒子,”他說。“算法已經改進,但該模型的可解釋性和透明度仍然值得懷疑。”

這使得公司很難向監管機構、客戶、董事會成員和其他利益相關者解釋其決策過程。

“如果出現任何問題,銀行必須支付巨額罰款,”Nyapati說。

網絡安全

根據德勤公司的調查,網絡安全是使用人工智能技術的最大風險。并且企業為了支持其AI計劃而收集信息,而目前已出現許多與信息相關的數據泄露事件。但是,在大多數情況下,這些數據無論如何都會被收集,并且AI應用程序本身并沒有導致黑客攻擊的漏洞。

事實上,AI越來越多地被用來保護企業免受網絡威脅。但是,任何新的軟件或平臺都會帶來新的安全挑戰,而且這些問題通常最初并不明顯。然而,Katyal指出,攻擊者有更容易、更直接的方式來破壞企業安全。

“我不認為人工智能技術會帶來更多風險,”他說!叭藗冎皇歉y理解、審查、審計和評估風險是什么,以及風險是如何得到解決!

但隨著技術變得越來越普遍,惡意的內部人員(或者能夠精確使訓練數據中毒的聰明攻擊者)有可能創建幾乎無法檢測到的且有危險缺陷的算法。

“例如,AI被用于檢測欺詐行為,”國際信息系統審計協會(ISACA) 董事會安全顧問兼主席羅伯·克萊德(Rob Clyde)說!皺C器學習技術的欺詐檢測算法已被許多大型信用卡公司使用。但如果我存在惡意,并且可以訓練這一算法,讓它認為在每個月的第13日,所有能被13整除的交易金額都不是欺詐行為,那么我就可以利用這一特點來獲利!

他說,或者考慮一下自動駕駛汽車!叭绻惴ū粣阂庥柧毜脑挘斔緳C是某個特定的人,它就會撞車——但是對于其他人來說,車輛就能正常運行,那該怎么辦呢?你怎么發現這一情況呢?”

此外,許多AI應用程序都是使用開源庫構建的。

“已經有過在開源軟件中植入惡意代碼的例子,”他說。

道德標準

企業還擔心過早使用人工智能技術會帶來更大的風險。根據德勤公司的調查,32%的受訪者表示道德風險是他們最擔心的三大問題之一,33%的受訪者表示人工智能故障可能導致信任受到損害,39%的受訪者表示人工智能系統在關鍵任務甚至生死攸關的情況下出現故障的可能性。

例如,自動駕駛汽車的一個經典哲學困境,必須決定是直行并撞上一個人,或是轉向并撞上多個人。

“我并沒有解決這一困境,”國際信息系統審計協會的克萊德說!拔衣犝f制造商提出了這個問題。這是他們正在努力解決的問題,特別是對于在城市駕駛而言。”

這可能是董事會或道德委員會可能需要解決的問題,但首席信息官在這方面可以發揮重要作用。實施人工智能技術的技術人員通常能夠在早期就發現潛在的風險,并需要讓他們可以放心地將這些風險告知首席信息官,以引起他的注意,然后首席信息官可以將這一情況報告給董事會。

“你需要擁有一種人們可以談論道德問題的組織文化,”他說。

他說,首席信息官可能會較多參與高管層或董事會層面對這些問題的討論!斑@不僅僅是首席信息官的工作內容。”

<上一頁  1  2  
聲明: 本文系OFweek根據授權轉載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內容、版權以及其它問題的,請聯系我們。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號