免费久久国产&夜夜毛片&亚洲最大无码中文字幕&国产成人无码免费视频之奶水&吴家丽查理三级做爰&国产日本亚欧在线观看

訂閱
糾錯
加入自媒體

出門問問把AIGC看得很透徹

2023-04-28 13:55
數科星球
關注

李志飛將AIGC看得很透,他可能是行業里“最不著急”的人。

@數科星球原創

作者丨苑晶編輯丨大兔

“幾乎每一個行業,從業者都是國外的2倍,利潤又是同行的1/5,讓中國的創業難度提升了10倍”。李志飛的這句話適用于廣大行業,也可看成AIGC行業所面臨的現狀。

在2023年,AIGC行業開局即炸裂。“被離職”、泛互聯網從業者及創業者扎根其中,保守估計已逾百萬之眾。熱鬧中裹挾著焦慮,熙熙攘攘的人群中到處可聽見“chat、chat”。

第二季度,國內企業動作頻出,百度、360、阿里、商湯相繼發布自研大模型,創業圈也熱情不減,王慧文、李開復、賈揚清、王小川相繼下場宣布入局大模型,當大家的關注點都聚焦在5000萬美元能買多少張卡,可以支持幾次訓練的時候,李志飛和出門問問卻走出了另外一條路。自研大模型+AIGC產品矩陣,底層技術和應用落地并行是這家公司的特色,他可能是這個行業“最不著急”的人。

01

什么是大模型

在李志飛看來,大模型本質上是序列模型。

以GPT為代表的大模型起源于文本,?本是簡單線性序列,從這個角度看,大模型本質上是一個序列模型。

他認為,序列本身是很通用的,語言是一種序列,天氣溫度、股票價格也是序列。任何一個序列都有所謂的Prefix(前綴)、中綴(Infix)和 Suffix(后綴),這些元素構成短語后就能形成具有遞歸能力的層次式表示,就像語言的語法樹一樣。大模型現在已經學會快速表達序列,這一能力是以前的AI在機器翻譯、語音識別等序列任務里都不具備的。而且語言序列只是一種非常簡單的序列,因為它是線性的。

這似乎并不難理解,在數科星球(ID:digital-planet)多方印證下,找到了序列模型的一些解釋:(GPT、BERT等)之所以被稱為序列模型,是因為它們是在序列數據上進行預訓練的。在自然語言處理領域,大模型的輸入通常是一句話或一篇文章,這些輸入可以被看作是一個序列。因此,在訓練這些模型時,它們通常會以序列方式處理輸入,并使用一系列技術來建立記憶和理解上下文之間的關系,以提供更好的預測能力。

在數科星球(ID:digital-planet)的研究中發現,如今,序列模型在業界已被廣泛采用。例如,Google的BERT模型可以通過在大量文本數據上進行預訓練,理解單詞和短語之間的關系,從而實現對復雜自然語言處理任務的卓越表現。同樣,OpenAI的GPT-3模型是基于序列到序列的轉換模型,以多種方式訓練,使用Transformer架構來學習計算機生成的文本與真實的人類生成的文本之間的關系。

值得注意的是,大模型較之以往AI產品的好處是顯而易見的。以往,問題在通過AI生成結果之前,需要定義語義模板,而這通常是指一種用于描述和表示語言語義信息的結構化模板。這些模板描述了一些常見的語言結構和句式,在生成文本時可以根據這些模板來指引生成過程。但缺點是,當問題發生變化,AI的程序也需變化,這讓模型本身變得“不那么通用”。

“而大模型訓練過程中并不會預設問題,只在最后Fine Tuning階段給模型一些范例數據(而非按照格式去標注數據),然后就可以直接提問模型并得出答案。”這意味著,大模型產品不需要特意標注數據和重新訓練系統,在通用性角度上,是一種極大的進步。

02

參數不是越多越好

隨著ChatGPT在全球越來越火爆,大模型的基本原理已逐漸被世人熟知。在一個個大模型推向市場的同時,數科星球(ID:digital-planet)看到,大模型的參數量變成了人們關注的焦點。對此,人工智能科班出身的李志飛認為,大模型不只是”大“。

他提到,參數量超千億的語言模型并非近年才發展起來,早在2007年,Google Translate的語言模型就已在2萬億文本token里進行學習,并達到3000億參數。但那時的大模型都是基于文本里的n-grams構建,只是對互聯網文本的表層建模,至多只能往前看六個詞,主要用于在翻譯過程中判斷哪些句子更加符合目標語言習慣,并不具備泛化任務的能力。

所以大模型不只是「大」,更多是需要對互聯網文本深度地建模。

在數科星球(ID:digital-planet)對話相關業內人士后,也得出了相似結論:即大模型并不是參數越多越好——大模型確實需要參數到達一定的量級才會出現“涌現“能力,增加參數量也的確可以提升模型表現,但也會帶來以下一些潛在問題:

訓練時間和計算資源:參數越多,訓練模型所需的時間和計算資源就越多。這可能導致開發周期變長,并需要更強大的硬件設備才能支持。

過擬合:較多參數的大模型可能面臨過擬合問題。當一個模型具有太多參數時,它可能過于復雜,以至于對訓練數據捕捉過多細節,而無法很好地泛化到新的、未見過的數據。

優化挑戰:參數較多的模型在尋找最優解時具有更大的搜索空間,從而使優化過程更為復雜和困難。

易用性和部署:大模型可能導致較大的存儲和內存需求,這可能影響模型的易用性和部署。在資源受限的設備上(如移動設備),部署大模型可能存在挑戰。

因此,在設計和選擇模型時,應該根據任務需求和資源限制來平衡模型的大小和復雜度。在實際應用中,往往需要找到模型大小和性能之間的最佳平衡點。有時候,使用更小的模型加上合適的正則化方法、數據增強等技術,也能達到不錯的效果。

03

關鍵在于把如何大模型用起來

4月20日,出門問問在2023AIGC戰略發布會上內測自研大模型“序列猴子”,展示了其在知識儲備、多步推理等方面的能力,李志飛本人甚至做了一場“人機交互”的live demo。

此外,出門問問還推出了四款AIGC產品形成產品矩陣,分別為AI寫作平臺“奇妙文”、AI繪畫平臺“言之畫”、AI配音平臺“魔音工坊”、數字人視頻與直播平臺“奇妙元”,涵蓋了劇本生成、解說講稿、文本工具、創意想法、視頻制作和制圖配圖等多個使用場景。

自2012年成立,出門問問這家公司在語音識別、TTS和NLP等領域均有嘗試。2020年6月,GPT-3出現之后其強大的通用能力讓人李志飛非常震撼,一個單一的模型便可以完成多種特定任務,甚至能夠完成從來沒有接觸過的任務。驚艷于GPT-3的表現,出門問問開始探索中國GPT-3之路,并于2021年發布大模型「UCLAI」,但由于其商業化落地過于艱難,出門問問便停止了對大模型的投入。

隨后的一年多時間里,出門問問開始布局生成式AI,做出了一系列AIGC產品,如「魔音工坊」和「奇妙元」。同時在美國,以Jasper為代表的AIGC產品迎來爆發式發展,成為GPT落地應用的最佳場景之一。

2022年10月,出門問問重啟大模型業務。歷經6個月,出門問問在發布會中連發4款AIGC產品,涵蓋劇本生成、解說講稿、文本工具、創意想法、視頻制作和制圖配圖等多個使用場景形成覆蓋創作者全流程的生成式產品矩陣。

厚積薄發之下,大模型技術以及AIGC落地場景和產品應用的積累徹底打通了出門問問的“任督二脈”,讓產品-數據和用戶之間形成了飛輪效應。

客觀地說,出門問問的模式可以成為大模型和AIGC企業的成長樣板,在可預期的未來,AIGC產品之間也將在進一步提升語義語境理解、垂直模型和個性化之間展開。在數科星球(ID:digital-planet)看來這場技術革命才剛剛開始,遠沒到終局之時。

不過面對OpenAI引發的這場技術浪潮,相比于年初的滿腔熱血,李志飛理性了很多。

“跟ChatGPT差距是16個月 ”是李志飛對國內大模型技術水平的判斷,他認為,目前國內各家大模型的平均水平大概處于谷歌FLAN階段(FLAN開啟了大模型的指令學習Instruction Tuning范式),

做大模型不能太著急,它是個長期主義的事情。

如今,在琳瑯滿目的AIGC類產品推向市場的同時,數科星球(ID:digital-planet)認為,創業企業在構建技術底座的同時,還應該明確落地場景和商業模式。畢竟目前,國內外差距展現出來的只是技術問題,而中國擁有全球難以企及的應用優勢。技術和商業并行,兩條腿走路或許是最適合國內大模型企業的發展路線,就像李志飛所說,發展大模型的關鍵在于把如何大模型用起來。

結尾:在對話多家AIGC企業后,數科星球(ID:digital-planet)覺得,李志飛和出門問問可能是行業中“最不著急”的人。他本人對AIGC的態度是長期看好,但并不焦慮。

現在,AIGC的子彈飛翔兩個多月,并攪得行業“天下大亂”。在未來,數科星球(ID:digital-planet)希望看到更多更扎實、更能沉得住氣的企業加入AIGC大潮。有理由相信,倘若再給行業多些時間,那么將會有更多的企業給大眾帶來更多驚喜。

       原文標題 : 出門問問把AIGC看得很透徹

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號