人工智能需要重置
ArCompany公司的Karen Bennet是一名致力于平臺、開源和封閉源系統以及人工智能技術的經驗豐富的工程主管。作為雅虎公司的前工程主管以及Red Hat公司的創始人之一,Karen致力于推動技術革命,他早期在IBM公司專家系統參與人工智能技術的開發,而如今正在見證機器的快速實驗學習和深度學習。他撰寫的這篇文章將對人工智能的現狀進行探討。
隨著人工智能的應用越來越廣泛,人們發現很難駕馭,對于采用人工智能的承諾在很大程度上還沒有實現。雖然人工智能相關技術仍在不斷涌現,但并未成為所承諾的那樣成為一種普遍力量。以下查看一下令人信服的統計數據,以證實人工智能技術的發展:
自2000年以來,人工智能創業公司數量增加了14倍。
自2000年以來,風險投資公司對人工智能初創企業的投資增長了6倍。
自2013年以來,需要人工智能技能的工作比例增長了4.5倍。
截至2017年,Statista公司發布了以下調查結果:截至去年,全球只有5%的企業將人工智能廣泛納入其流程和產品中,32%的企業尚未采用,22%的企業沒有計劃采用。
截至2017年,全球商業組織的人工智能(AI)采用水平
Filip Pieniewski最近在行業媒體Venturebeat發表的文章中表示:“人工智能的冬天即將來臨”。
如今,這種情況正在發生變化。從表面上看,神經信息處理系統大會(NIPS)會議仍然座無虛席,企業的新聞稿中仍然發布很多關于人工智能的文章,特斯拉公司創始人伊隆?馬斯克仍然致力于開發和研究具有前途的自動駕駛汽車,谷歌公司不斷推動Andrew Ng的線路,認為人工智能產業規模將比電力行業更大。但這種敘述開始讓人質疑。
人們對自動駕駛汽車很感興趣。但在今年春天,一輛自主駕駛車輛撞死一名行人,這引發了人們的質疑,并對自動化系統決策背后的道德規范表示懷疑。自動駕駛車輛問題并不是拯救汽車乘客生命一種簡單的二元選擇,可能將演變成對于良心、情感和感知的爭論,這使機器做出合理決定的路徑變得復雜。
Karen的文章指出:全自動駕駛汽車的夢想可能比人們意識到的還要遙遠。人工智能專家越來越擔心,在自動駕駛系統能夠可靠地避免事故之前,可能需要數年甚至數十年的探索。
Karen解釋說,以歷史作為預測因素,云計算行業和網絡行業在開始以顯著的方式影響人們工作和生活之前花費了大約5年時間,幾乎需要10年的時間才影響市場的重大轉變。人們正在設想人工智能技術的類似時間表。
為了讓每個人都能夠采用,需要一個可擴展的產品和一個可供所有人使用的產品,而不僅僅是數據科學家。該產品需要考慮捕獲數據,準備數據,訓練模型,以及預測的數據生命周期。隨著數據存儲在云中,數據管道可以不斷提取并準備它們來訓練將進行預測的模型。模型需要不斷改進新的訓練數據,這反過來將使模型保持相關性和透明性。這就是目標和承諾。
在沒有重大用例的情況下構建人工智能概念證明
Karen在人工智能初創企業中工作,其所見證的以及與同行討論時都是廣泛的人工智能實驗,涉及多個業務問題,這些問題往往停留在實驗室中。
最近他發布的一篇文章證實了如今人工智能試點項目的普遍性。文章指出,“人工智能技術的供應商經常受到激勵,使他們的技術聽起來比實際能力更強——但暗示著比實際擁有更多的真實世界的吸引力......企業中的大多數人工智能應用只不過是一種試點。”供應商推出銷售營銷解決方案、醫療保健解決方案和人工智能的財務解決方案只是為了驅動人工智能技術得到人們越來越多的關注。在任何給定的行業中,人們發現在銷售人工智能軟件和技術的數百家供應商公司中,只有大約三分之一的公司真正擁有知識和技術開展人工智能的探索和研究。
風險投資商意識到他們可能在一段時間內看不到投資回報。然而,很少有模型進行普遍的實驗只是人工智能尚未準備好迎接廣泛應用的原因之一。
算法可以為此負責嗎?
人們也許聽說過人工智能“黑盒”, 這是一種無法確定決策的方法。這種做法將面向銀行和大型機構,這些機構具有強制執行問責制的合規標準和政策。在系統作為黑盒運行,只要這些算法的創建已經通過審核,并且已經由關鍵利益相關者滿足某些標準,就可能存在對算法的固有信任。鑒于壓倒性的生產算法以及由此產生的意外和有害結果的壓倒性證據,這一概念很快就受到了質疑。由于企業保密措施不當,缺乏足夠的教育和理解,很難批判性地對投入、結果以及為什么會出現這些結果進行檢查,企業的許多簡單系統都像超出了任何有意義審查范圍的黑盒一樣運行。
如今的人工智能行業正處于企業準備就緒的早期階段。人工智能非常有用,可以用于發現并幫助解析大量數據,但是仍然需要人工干預作為評估和處理數據及其結果的指南。
Karen解釋說,如今的機器學習技術可以標記數據以識別洞察力。但是,作為此過程的一部分,如果某些數據被錯誤地標記,或者如果沒有足夠的數據表示,或者存在有問題的數據表示有偏差,則可能會發生錯誤的決策結果。
他還指出目前的流程需要不斷完善:目前,人工智能完全是一種關于決策支持以提供對業務可以得出結論的見解。在人工智能發展的下一階段,它可以實現數據中的自動化操作,還有其他需要解決的問題,如偏見、可解釋性、隱私、多樣性、道德規范和持續模型學習。
Karen以一個人工智能模型為例進行了說明,當圖像標題暴露了通過訓練學到的知識時,可以看到錯誤,這些圖像用他們所包含的對象標記。這表明,人工智能產品需要具有常識世界模型的對象和人才才能真正理解。僅暴露于有限數量的標記對象且訓練集中的有限多樣性將限制這個常識世界模型的有效性。企業需要研究確定模型如何處理其輸入,并以人類可理解的術語得出結論。亞馬遜公司發布了面部識別技術Rekognition,這是目前正在生產并獲得許可使用的技術的一個例子,同時其效果存在明顯差距。
算法正義聯盟的創始人Joy Buolamwini呼吁暫停這項技術,聲稱它無效,并且需要更多的監督,呼吁在公開發布這些系統之前將更多的政府標準納入這些類型的系統。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













