免费久久国产&夜夜毛片&亚洲最大无码中文字幕&国产成人无码免费视频之奶水&吴家丽查理三级做爰&国产日本亚欧在线观看

訂閱
糾錯
加入自媒體

徐飛玉:可解釋性AI ,讓AI從煉金術變成“化學”

2019-04-15 10:34
來源: 獵云網

4月12日,FUS獵云網2019年度人工智能產業峰會在北京千禧大酒店隆重舉行,近百位知名資本大咖,獨角獸創始人、創業風云人物及近千位投資人與創業者共聚一堂。

聯想集團副總裁、聯想研究院人工智能實驗室負責人徐飛玉博士受邀參與本次峰會并發表《“可解釋性人工智能“, 打造人機互信智能時代》的主題演講。徐飛玉表示:可解釋性AI,可以讓AI由煉金術變成“化學”。

近幾年,深度學習大大推動了人工智能的發展,但由于可解釋性差,它就像一個黑盒子,阻礙了人工智能的落地和商業化。同時,在一些學者眼里看來,由于缺乏可解釋性,現有的人工智能技術好比煉金術,不夠科學和嚴謹。因此,伴隨著人工智能大火,可解釋性AI成為非常重要的研究方向,而智能時代需要是一個人機互信的時代

徐飛玉分析指出,可解釋性AI的重要性可以從三個角度來體現:對使用者來說,如果人工智能技術幫助我們做決定,做決定的人需要理解,為什么人工智能系統提供這樣的建議。第二,對于受到AI影響的人,如果AI自己做了決定,那些受到決定影響的人要能夠理解這個決定。第三,對于開發者來說,理解了深度學習的黑盒子,可以通過提供更好的學習數據, 改善方法和模型, 提高系統能力。

徐飛玉還介紹了目前世界范圍內可解釋AI研究的三個重要領域:一是使深度神經網組件變得透明,二是從深度神經網里面學習到語義網,三是生成解釋,生成人可以理解的解釋。。

對于AI下一步的發展和應用,徐飛玉指出,必須要把深度學習和知識圖譜結合起來。在她的暢想中,未來的AI將更像化學一樣,并以人作為最重要的“元素”賦能社會。

FUS 為“Future Unicorn Summit”的簡稱,意為未來獨角獸峰會。獵云網以發現產業獨角獸為初衷,開啟系列產業獨角獸峰會。本次大會將繼續致力于探究人工智能行業核心發展趨勢,通過優質AI應用實例分享、科技領域、金融投資等業界大佬互動,聚焦國內人工智能的產業力量,以行業從業者的視角,探討科技浪潮的機遇與挑戰。

以下為徐飛玉演講實錄:

可解釋性AI既是一個舊話題,也是一個新話題。

上世紀70年代末、80年代初,當時很多的輔助顧問系統已在可解釋性上有研究。在人工智能研究之初,科學家們就提出人工智能系統需要能解釋,特別是這些人工智能系統參與決定的情況下。但是過去的人工智能系統,它們是以規則、以知識為基礎,而這些人工智能系統的規則和知識是人定義的,據此推算出來的結果,人是可以理解的。

近幾年,深度學習很大程度上推動了人工智能的快速發展,可解釋性AI成為一個新的課題。對機器學習,特別是深度學習來說,可解釋性AI是一個很大的挑戰。

深度神經網絡對我們人來說是一個黑盒子。在人工智能落地做應用的時候,如果是個黑盒子,大家不敢用,但也可能不能用。深度學習在預測能力方面比目前任何其他學習方法更好,但可解釋性也最差。

最近,人工智能在人臉識別或者語音識別上的突破都和它的預測準確性有很大關系,可是要落地、要商業化,可解釋性就變得非常重要。深度學習很多算法,如人臉識別的深度神經網絡,我們希望它的神經元是有透明度和可視化的。我們可能理想地認為每個神經元和我們人的認知的語義對應,有可能底層的神經元對應鼻子、耳朵,然后再是完整的臉,而實際中,很多神經元既有眼睛的信息,也有鼻子的信息,是很混亂的。

為什么可解釋性AI這么重要呢?第一,對我們使用者來說,如果人工智能的技術只是提一些建議或者幫助我們做決定,做決定的人他要必須理解,為什么人工智能系統給他們提了這個建議。比如,醫生做診斷,要能理解為什么醫療診斷系統做這樣的建議。第二,對于受到AI影響的人,如果AI自己做了決定,那些受到決定影響的人要能夠理解這個決定。第三,對于開發者來說,理解了深度學習的黑盒子,可以通過提供更好的學習數據, 改善方法和模型, 提高系統能力。

大家都知道,歐洲共同體,歐盟對數據保護非常重視,對用戶權利保護非常重視,歐盟在GDPR(GeneralDataProtectionRegulation歐盟一般數據保護條例)上面有要求,要求人工智能的算法如果參與決定必須要有解釋的能力,這對人工智能的研發人員和提供人工智能的公司來說、企業來說,我們必須要做可解釋性人工智能的研發,提供可解釋性的人工智能系統。所以說遵守立法是我們做可解釋性AI的一個重要的原因之一。

舉個例子,美國德州的教師控告了AI系統用于課堂教學評估并取得勝訴。德州用一個AI系統自動評估教師上課的質量,老師說不能用這個系統,這個系統不能告訴我,為什么我上課的效果不好,后來德州把這個系統去掉了。

用可解釋性AI可以幫助我們驗證我們的系統推出的是正確的還是錯誤的預算。這里有一個很簡單的例子,我們的人工智能黑盒子用了一堆數據推算出來,有哮喘病的病人得肺炎的可能性很低。用常識來說,這個推算不對。問題在于它的數據是有問題的,研發人員用了住在醫院里的哮喘病人數據來推算,他們被看護得很好、治療得很好,他們患肺炎可能性低。但如果用醫院外的病人數據來推算,哮喘病人得肺炎的可能性非常高。所以通過可解釋性AI可以理解并糾正我們系統的弱點,知道數據的偏差,而且發現模型中的錯誤。

最近幾年,在可解釋性AI方面,很多的企業或者是投資企業當中,可解釋性AI還不是重點。目前,全球在研發可解釋性AI的工作上,主要有三個重要領域:第一是使深度神經網組件變得透明,第二是從深度神經網里面學習到語義圖,第三是生成解釋,生成人理解的解釋。

2016年,來自谷歌機器學習科學家Ali Rahimi 在NIPS(神經信息處理系統大會)上表示,當前有一種把機器學習當成煉金術來使用的錯誤趨勢。因為人工智能系統已經參與了很多社會的決定,幫助我們醫療系統、幫助醫生,但他希望生活在一個社會里,在這個社會里,這個社會里用的系統建立在可驗證的、嚴謹的、全面的知識之上,而不是煉金術。他認同Andrew Ng的觀點即人工智能是新的電力,他比喻到,可解釋性AI的發展是要讓機器學習或者是現在的人工智能從煉金術變成電力學。但我個人認為說化學更合適。

2016年,美國國防高級研究計劃局(DARPA)制定了《DARPA Explainable AI (XAI) Program》,這是一個五年研發計劃。現在人工智能機器學習,有了數據進行訓練,訓練出來的模型,一張圖片放進去,識別出這是一只貓,但人不知道為什么是貓,而不是其他東西。而美國的五年計劃希望實現的效果是,有了訓練數據以后,用新的方法得出來可解釋性的模型,這個可解釋性的模型,加上可以解釋的界面,對投資者來說是非常重要的,可解釋性AI對投資的決定是一個很好的應用。

人工智能想模擬人的智力。人有顯性的知識和隱性的知識,隱性的知識就是我們的經驗直覺,人可以有效結合兩種不同的知識,把經驗、直覺、知識結合在一起。我們在解釋的時候,理解的時候必須是顯性的。深度學習是以概率的模型得到了隱性的知識,深度神經網它們不理解任何的事情,只是數據和數據之間的關系。深度學習雖然被強調了很多,但在人工智能領域還有其他的方法,比如知識圖譜,知識圖譜在模擬顯性的知識。目前深度學習和知識圖譜這兩個世界還沒有在一起,但是下一步對整個人工智能的發展和應用落地來說,必須把顯性知識和隱性知識結合在一起。

聲明: 本文系OFweek根據授權轉載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內容、版權以及其它問題的,請聯系我們。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號