卡內基梅隆大學開發AI屆的“歐亨利”,能斬獲普利策獎嗎?
高級的自然語言處理系統,比如OpenAI的GPT-2,可以寫出人性化的語言,這一點令人印象深刻。然而,這樣的人工智能的語言往往缺乏說服力和連貫性。其最顯著的特點就是他們難以寫出令人信服的作品——人工智能生成的故事往往是通用的,缺乏上下文。
為解決這一問題,卡內基梅隆大學計算機科學學院的科學家們設計出一種方法,即為一個給定的故事創造更多“多樣化”的結尾。他們表示,研究的關鍵是訓練人工模型把注意力集中在故事的重要短語上,促進非通用詞的生成。
“故事情境由連接人物和事件的一系列句子構成。這項任務具有挑戰性,因為它需要對上下文中的角色,事件和對象進行建模,然后根據它們生成連貫且合理的結尾。概括事件和實體的語義以及它們在不同故事中的關系是一項非常重要的任務,”合著者寫道,“我們的研究表明,兩者的結合會帶來更多樣、更有趣的結局。”
團隊利用seq2seq模型(一種長短期記憶遞歸神經網絡架構,能夠學習依賴關系),并創建符合目標故事情境的文字的數學表示,學習這些文字之間的關系,將他們轉化為人類可讀的文本。為了整合故事上下文中的關鍵短語,研究人員使用了一種名為RAKE的算法,該算法根據單詞的出現頻率和共現度為短語分配分數,然后根據相應的分數對短語進行手動排序,并將低于一定閾值的短語丟棄。
為了使模型能夠生成更豐富的結尾,科學家們通過ROCStories數據集升級了他們的模型,該數據集包含超過50,000個五句話的故事。為了評估該模型,他們使用DIST算法計算得出不重復的一元模型(來自給定文本或語音樣本的n個項目的連續序列)、二元模型(一對連續寫單位如字母、音節,或文字)和三元模型(三個連續寫單位)的數量,并將它們與一元、二元和三元模型的總數量相除。
在另一項測試中,他們訓練谷歌的BERT完成開源故事填空任務,讓BERT在給定兩個選項的情況下選擇正確的故事結尾,從而將模型與基線進行比較。
那么人工智能的表現如何呢?顯然想拿到普利策獎是不可能了。雖然它在DIST測試中名列前茅,且故事完形填空的正確率達到了72%,但它偶爾也會給出一些荒謬的結尾,比如“凱蒂被自己搞得崩潰了,甩了男友”,或者不正確的代詞(“凱蒂”、“他自己”)。
研究人員承認,需要進一步的研究來確保輸出“語義和象征層面上的上下文”,并且它們在邏輯上是合理和一致的。盡管如此,他們聲稱他們已經“定量地”和“定性地”表明他們的模型能夠超越基線,實現“有意義的”改進。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













