免费久久国产&夜夜毛片&亚洲最大无码中文字幕&国产成人无码免费视频之奶水&吴家丽查理三级做爰&国产日本亚欧在线观看

訂閱
糾錯
加入自媒體

深度解讀《人工智能的可解釋性》

2020-07-28 09:21
物聯網風向
關注

人工智能對我們來說是非常重要的。

《經濟學人》智庫亞洲編輯部主任Charles Ross 用與谷歌合作的一個調查數據告訴我們人工智能對于每個國家所帶來的影響,左邊這幅圖,顯示的是如果國家能夠持續對人工智能產業采取比較積極投資和政策支持,2030年這些國家的GDP將得到顯著的更進一步的提升。而增長最快的是澳大利亞,可以增加2.71%的GDP,反之則帶來非常不利的影響。

但隨著AI研究與應用不斷取得突破性進展,高性能的復雜算法、模型及系統普遍卻缺乏決策邏輯的透明度和結果的可解釋性,導致在涉及需要做出關鍵決策判斷的國防、金融、醫療、法律、網安等領域中,或要求決策合規的應用中,AI技術及系統難以大范圍應用。而XAI(eXplainable Artificial Intelligence)技術就是主要研究如何使得AI系統的行為對人類更透明、更易懂、更可信。

什么是人工智能的可解釋性

主講嘉賓:菲律賓聯合銀行人工智能和數據資深顧問  David Hardoon 博士以汽車的發展史為例,深入淺出地解釋了人工智能的可解釋性是一個什么概念。

它就好像在1914年拿到了一輛福特T型車,很多駕駛員可以解釋他大部份的工作原理,懂得如何自己修理。而現在當我們拿到了一輛特斯拉,我們可能不知道它的運作原理,只是知道這個啟動按鈕,踩一下這個油門,這輛車就開了。與長期的汽車演化歷史相比,AI的出現和廣泛的運用是如此的突然,而在如此短暫的時間里,我們作為使用者,無法完全了解這個產業鏈的相關信息,所以在可解釋性的第一個層面,就是回答這個問題:誰了解這個技術以及它的產業鏈,誰為什么環節負責,如何負責。這將是我們建立信任的基礎。

我們有三個方面的內容需要考慮:

01可解釋性的前提——不同的應用場景和交流語境

02解釋的對象是誰?他/她需要了解什么?

03政策和規范對人工智能的可解釋性有什么標準?

可解釋性,其實是人性的需求,也是建立互信的需要。理解這個底層需求,是非常非常重要的。我們不僅僅討論的是可解釋性,我們實際上是通過解釋,通過讓人了解,去建立彼此的互信。

1  2  3  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號