專訪Sam Altman:事關OpenAI、GPT-5、Sora、Elon Musk、AGI……

介紹
Sam Altman(00:00:00)
我相信計算能力將會成為未來的“貨幣”。它可能將成為世界上最珍貴的商品。我預計在本十年結束,甚至可能更早之前,我們將擁有一些強大的系統,讓我們驚嘆不已。我預見通用人工智能的發展將會引發一場巨大的權力爭奪,我相信這將會發生。
Lex Fridman(00:00:26)誰能首先建立起通用人工智能,誰就將掌握巨大的權力。你覺得自己能夠承受這么大的權力嗎?
(00:00:36)下面是我和Sam Altman的一段對話,這是他第二次參加這個播客節目。他是OpenAI公司的CEO,這家公司開發了GPT-4、ChaTGPT、Sora等項目,也許有一天,會成為建立起通用人工智能的公司。這是Lex Fridman的播客節目。如果您愿意支持我們,請查看描述中的贊助信息。現在,請歡迎我的朋友們——Sam Altman。
OpenAI董事會紛爭
(00:01:05)能否讓我了解一下11月16日星期四開始的OpenAI董事會紛爭?也許對你來說是星期五的11月17日。
Sam Altman(00:01:13)那無疑是我職業生涯中最痛苦的經歷,一片混亂、羞愧、困擾和種種負面情緒。當然,這其中也有一些好的部分,但我只是希望在那種劇烈的緊張感中,我能有機會停下來欣賞它們。我回顧了我那段時間發的一條推特,看到它就像是自己在聽自己的悼念詞,看著人們對我說出所有這些贊美的話,還有我關心和愛護的人們給予我無比的支持,那真的很令人感動。整個那個周末,除了一件重大事件外,我感到了大量的愛,而恨的情緒很少,盡管我感覺我不知道將要發生什么,我也不知道接下來會怎樣,這真的感覺很糟糕。有時我甚至認為這可能會成為AI安全歷史上最糟糕的事件之一。但說實話,我很慶幸這件事在相對早的時期就發生了。我預感在OpenAI開始運作和我們成功創建通用人工智能的間隙,會有一些瘋狂和震撼的事件發生,而且可能會有更多這樣的事情即將發生。不過,我依然堅信,這些經歷幫助我們增強了抵抗壓力的能力,讓我們更好地應對未來可能出現的挑戰。
Lex Fridman(00:03:02)但你有沒有預感自己會經歷某種權力斗爭呢?
Sam Altman(00:03:08)我預見通用人工智能的道路將會是一場巨大的權力斗爭。
Lex Fridman(00:03:17)所以你必須去經歷這種情況,就像你說的,盡可能多地進行嘗試和改進,以找出如何建立董事會的結構,如何有組織,如何選擇合作伙伴,如何溝通所有這些,以盡可能地緩解權力斗爭。
Sam Altman(00:03:37)是的。
Lex Fridman(00:03:37)平息它。
Sam Altman(00:03:38)但在這個階段,過去那些令人難過、困難和痛苦的事情感覺就像是歷史。我們又回到了工作中,每天的事情繁忙而緊張到我幾乎沒有時間去思考過去的事情。過去那段時間,我仿佛身處迷離的狀態,在那大約一個月,或者說45天的時間里,我像是在生活中漂浮,感到十分低落。
Lex Fridman(00:04:17)那是從個人的心理層面上講的嗎?
Sam Altman(00:04:20)是的。真的很痛苦,而且在那段時間里還要繼續經營OpenAI真的很難。我只想找個地方躲起來,好好休息一下。但現在我們又回到了執行我們的使命。
Lex Fridman(00:04:38)嗯,回顧并反思董事會結構,權力動態,以及公司如何運營等問題仍然是有用的,這包括研究和產品開發之間的緊張關系,還有金錢等所有這些問題。這對你這樣有很高可能性建立通用人工智能的人來說,你可以在未來以更有組織、更低調的方式去工作。所以,對你作為領導者的個人心理方面,以及董事會結構和所有這些復雜的事情進行反思,是有價值的。
Sam Altman(00:05:18)我從這次經歷中學到了很多關于結構、激勵,以及我們需要從董事會中得到什么的知識。我認為,從某種意義上說,這次事件的發生是有價值的。我認為這可能不是OpenAI最后一個高壓力的時刻,但這的確是一個壓力很大的時刻。我的公司差點就被摧毀。我們在考慮通用人工智能需要做對的許多其他事情,但是思考如何建立一個有韌性的組織,如何建立一個能夠承受世界壓力的結構,我預計壓力會隨著我們對通用人工智能的接近而增加,我認為這是非常重要的。
Lex Fridman(00:06:01)你是否了解董事會進行深度和嚴謹討論的過程?你能否對此類情況下涉及的人際動態進行一些解釋?是不是只經過了幾次對話,然后情況突然升級,為什么我們不解雇Sam?
Sam Altman(00:06:22)我認為董事會成員大體上都是有良好意愿的人,我相信在緊張的情況下,人們會理解并做出非最優的決策。我認為OpenAI將面臨的一個挑戰是我們需要有一個董事會和團隊,他們能夠在壓力下良好地工作。
Lex Fridman(00:07:00)你認為董事會擁有太多權力了嗎?
Sam Altman(00:07:03)我認為董事會應該擁有很多權力,但我們確實看到在大多數公司結構中,董事會通常需要對股東負責。有時候人們擁有超級投票權。在這種情況下,我認為我們在結構上可能應該考慮更多的是,除非你設定其他規則,否則非營利組織的董事會擁有相當大的權力。他們真正要負責的只有他們自己。這有其好處,但我們真正希望的是OpenAI的董事會能對全球公眾負責,只要實際可行。
Lex Fridman(00:07:44)所以新的董事會已經宣布了?
Sam Altman(00:07:46)是的。
Lex Fridman(00:07:47)我猜首先是一個較小的新董事會,然后現在有一個最終的新董事會?
Sam Altman(00:07:53)還沒有最終的董事會。我們已經添加了一些,我們還會繼續添加。
Lex Fridman(00:07:56)已經添加了一些。好的。新董事會修復了什么可能在以前的董事會中出現的問題?
Sam Altman(00:08:05)在大約一年的時間里,原有的董事會規模縮小了。原本有九人,后來減少到六人,并且我們無法達成一致關于應該添加誰的問題。我認為董事會可能也沒有很多有經驗的成員,而OpenAI新的董事會成員中有更多具有董事經驗的人。我認為這會有所幫助。
Lex Fridman(00:08:31)一些新增的董事會成員受到了批評,例如我聽說很多人批評加入了Larry Summers。選擇董事會的過程是什么?那包含什么?
Sam Altman(00:08:43)
布雷特和拉里的決定是在那個充滿壓力的周末的緊急時刻做出的,那個周末的經歷就像坐過山車一樣。起起落落,充滿了變化。我們試圖達成一個關于新董事會成員的協議,這些成員需要得到內部執行團隊和舊董事會成員的認可。拉里其實是舊董事會成員的提議之一。關于布雷特,我記得我可能在那個周末之前就提過他,但他那時非常忙,不想接受。我們考慮過很多其他人選,但是我覺得,如果我要回來,我需要新的董事會成員。我覺得我無法再和舊的董事會以之前的配置方式繼續合作,盡管后來我們決定,我很感激亞當能夠繼續留下,但是我們考慮了各種配置,最后決定構建一個由三個人組成的董事會,并在短時間內尋找兩個新的董事會成員。
(00:09:57)所以這些決定實際上是在緊急情況下做出的…你在戰場上做出這樣的決定。在那種情況下,你沒有時間去設計一個嚴謹的流程。對于未來的新董事會成員,以及我們將要增加的新董事會成員,我們設定了一些我們認為對董事會非常重要的標準,我們希望董事會具備不同的專業知識。與聘請執行職務的員工不同,需要他們在某一角色中表現出色,董事會需要在治理和思考方面表現出色,因此,我特別認同布雷特的觀點,即我們應以團隊的方式聘請董事會成員,而不是一次只聘請一個人。我們考慮的是一組人,他們具有非營利性專業知識、有公司運營經驗,以及良好的法律和治理專業知識,這些正是我們正在努力優化的地方。
Lex Fridman(00:10:49)那么對于董事會成員來說,是否需要具備精湛的技術?
Sam Altman(00:10:52)不是所有的董事會成員都需要,但肯定有一些人需要具備這種技能。這是董事會需要執行的任務之一。
Lex Fridman(00:10:57)關于OpenAI,我認為人們可能不太了解,我也是,那就是運營業務的所有細節。當他們考慮董事會時,考慮到那些風波,他們可能會想到你。他們會想,如果你成功實現了AGI,或者你創造并部署了一些極具影響力的產品,那么與董事會的對話將會是怎樣的?他們可能會想,面對這種情況,需要哪種類型的團隊來進行討論和決策?
Sam Altman(00:11:25)你看,我認為你確實需要一些技術專家在那里。然后你需要一些人,他們會思考,“我們如何運用這個最能幫助世界上的人們?”以及那些擁有完全不同觀點的人。我認為你或我可能會犯的一個錯誤是認為只有技術理解才重要,這當然是你想讓董事會討論的一部分,但是討論應該更多關于這個技術會如何影響社會和人們的生活。
Lex Fridman(00:11:56)你是查看人們的過往表現,還是只進行對話?
Sam Altman(00:12:00)過往表現是非常重要的。當然你會進行很多對話,但有些角色我會完全忽視過往表現,只看他們的進步速度,而忽視他們的起點。
Lex Fridman(00:12:18)謝謝。感謝你為觀眾引入數學概念。
Sam Altman(00:12:21)對于董事會成員,我確實更關心他們的起點。我認為過往表現里面有一些深層次的信息,而且經驗是無法替代的。
Lex Fridman(00:12:32)你試圖將多項式函數或指數函數擬合到過往表現上嗎?
Sam Altman(00:12:36)這個類比并不能太過深入。
Lex Fridman(00:12:39)好的。你提到了那個周末的一些低點。對你來說,心理上的一些低點是什么?你是否考慮過去亞馬遜叢林,只是服用迷幻藥物并永遠消失?
Sam Altman(00:12:53)那是一個非常糟糕的時期。但也有一些很好的時刻。我的手機經常收到我每天工作的人,甚至我十年沒聯系過的人發來的友好信息,這真的很棒。但是由于我處在這場混戰的中間,我沒能像我應該的那樣欣賞它,但那真的很好。總的來說,那是一個非常痛苦的周末。這場在公眾眼前的爭斗讓人震驚,這讓我感到極度疲憊,比我預期的還要多。我認為爭斗通常都很累人,但這場真的很累。該董事會在周五下午做出了決定。我真的得不到多少答案,但我也只是想,好吧,董事會有權這樣做,所以我會花些時間思考我想做什么,但我會試圖在這里找到隱藏的幸運。
(00:13:52)當時我在想,我現在在OpenAI的工作就是,或者應該說,是管理一個到此為止規模還算不小的公司。我最享受的部分總是和研究們的互動。我在想,對,我可以去投入到一個十分專注的通用人工智能 (AGI)研究中。這個想法讓我感到很興奮。當時我甚至都沒想到這一切可能會被全部撤銷。那是周五的下午。
Lex Fridman(00:14:19)所以你已經接受了這個事實-
Sam Altman(00:14:22)非常快速。非常快速。我經歷了一個短暫的困惑和憤怒階段,但很快就過去了。周五晚上,我已經在和別人討論接下來會發生什么,我對此感到很興奮。我記得是周五晚上第一次聽到執行團隊這樣說:“嘿,我們要反擊。”然后我就去睡覺了,仍然保持著那份興奮。向前看。
Lex Fridman(00:14:52)你能夠入睡嗎?
Sam Altman(00:14:54)并沒有睡很多。有那么四天半的時間,我幾乎沒怎么睡,也沒怎么吃,奇怪的是我仍然有很多精力。在戰時,你會對腎上腺素有一些奇特的了解。
Lex Fridman(00:15:09)所以你接受了OpenAI,這個你的寶貝的消亡。
Sam Altman(00:15:13)我對新的事物感到興奮。我只是想,“好吧,這有點瘋狂,但那又如何。”
Lex Fridman(00:15:17)這是非常好的應對機制。
Sam Altman(00:15:18)然后周六早上,兩位董事會成員給我打電話說,“嘿,我們并不是要破壞事情。我們不想讓這里失去很多價值。我們能談談你回來嗎?”我當時立刻就不想答應,但我又想了一下,我真的很在意這里的人,我的伙伴,股東。我喜歡這家公司。于是我想了想,我說,“好吧,但這是我需要的條件。”然后那個周末的過程中最痛苦的時刻就是,我一直在思考并被告知,不僅僅是我,這里的整個團隊都在想,我們正在努力讓OpenAI保持穩定,而整個世界似乎都在試圖將其分裂,人們試圖招攬一些人。
(00:16:04)我們一直被告知就快好了,就快好了,只是還需要一點點時間。那是一個混亂的狀態。然后在周日晚上,我其實每隔幾個小時都期待著事情會告一段落,我能夠重新回歸,一切又能恢復如初。然后,董事會任命了一位新的臨時CEO,那一刻我覺得真的很難受。那是整個事件的最低點。我要告訴你的是,那時候雖然心里很痛苦,但在那整個周末,我都深深地感受到了人們的關愛。除了周日晚上的那一刻之外,我并沒有真正體驗到憤怒或仇恨,反倒是感到了來自人們,對人們的深深的愛。那的確是痛苦的,但那個周末的主要情緒其實是愛,而不是仇恨。
Lex Fridman(00:17:04)你對Mira Murati的評價很高,你在推特上說她在那些寂靜的時刻給了你很大的幫助。或許我們可以稍微偏離一下主題,你對Mira有什么敬仰之情?
Sam Altman(00:17:15)嗯,她在那個充滿混亂的周末表現得非常出色,但人們通常只在危機時刻看到領導者的身影,無論好壞。然而,我真正認可的領導者特質,是他們如何在一個普通的周二上午9:46,或是在日常瑣事中表現。一個人如何在會議中應對,他們做出的決定有多高的質量。這就是我所說的那些寂靜的時刻。
Lex Fridman(00:17:47)這就是說,大部分的工作其實都是在日復一日,一次又一次的會議中進行的,只需全神貫注并做出明智的決定。
Sam Altman(00:17:58)是的。你看,你可能對過去的20分鐘里那個戲劇性的周末比較感興趣,我能理解。但這并不是OpenAI真正關心的。OpenAI真正關心的是其他的七年時間。
Lex Fridman(00:18:10)嗯,確實如此。人類文明并不只是關于納粹德國侵略蘇聯,但我們仍然會關注這種事情。
Sam Altman(00:18:18)我完全理解。
Lex Fridman(00:18:19)這能幫助我們更深入地理解人性,理解人性的極限,也許在這些時刻,人類文明的一些傷痛和勝利都會顯現出來,這是很有啟示意義的。那么,讓我問你一下關于Ilya的事,他現在被秘密的核設施拘禁了嗎?
Ilya Sutskever
Sam Altman(00:18:36)沒有的。
Lex Fridman(00:18:37)那么普通的秘密設施呢?
Sam Altman(00:18:39)不。
Lex Fridman(00:18:40)或者一個并非秘密的核設施呢?
Sam Altman(00:18:41)也不是。也不是那個。
Lex Fridman(00:18:44)這最終將成為一個梗。你和Ilya認識已經很長時間了。他顯然是董事會爭論等所有事情的一部分。你現在和他的關系如何?
Sam Altman(00:18:57)我喜歡Ilya。我對Ilya極度尊重。我現在并不能說出關于他計劃的任何事情。這個問題他更清楚,但我真心希望我們能在我職業生涯的剩余時間里一直一起工作。他比我年輕一點。也許他工作的時間會更長一些。
Lex Fridman(00:19:15)有種說法是他看到了什么,比如他可能看到了通用人工智能,這讓他內心深感憂慮。Ilya看到了什么?
Sam Altman(00:19:28)Ilya并未看到通用人工智能。我們都沒看到過通用人工智能。我們還沒有構建出通用人工智能。我確實認為Ilya的許多優點之一就是他對通用人工智能以及安全問題,廣義地說,包括這會對社會產生什么影響等等,都非常認真。而且隨著我們持續取得顯著的進步,Ilya是我在過去的幾年里花最多時間討論的人之一,關于這個問題,我們需要做什么來確保我們做得對,確保我們成功完成任務。所以Ilya并未看到過通用人工智能,但Ilya對人類做出了極大的貢獻,關于他如何思考和擔憂如何確保我們做對這個問題。
Lex Fridman(00:20:30)我過去與他有過很多對話。我認為他談論科技時,總是在做這種長期思考類型的事情。所以他并沒有在想明年這將會變成什么。他正在想10年后,從根本原則出發,比如,“好的,如果這個東西擴大了,基本原則是什么?這將會走向哪里?”因此,這是他思考所有其他安全問等等的基礎,這使他成為一個與之交談非常有趣的人。你有任何關于他為何保持沉默的想法嗎?他是在進行一些深度反思嗎?
Sam Altman(00:21:08)再次聲明,我不想替Ilya發言。我覺得你應該直接問他。他是個很有思想的人。我總覺得伊利亞以一種非常積極的方式在進行自我探索。
Lex Fridman(00:21:27)是的,沒錯。此外,他懂得欣賞沉默的力量。我也聽說他有時會展現出很滑稽的一面,但我還沒見過。
Sam Altman(00:21:36)當他這樣的時候,真的很可愛。
Lex Fridman(00:21:39)我還沒見過滑稽的Ilya,但我也期待見到。
Sam Altman(00:21:43)我最近和他一起參加了一個晚餐聚會,看到他正在和一只小狗玩耍,他的行為非常滑稽,也非常讓人喜歡。我當時在想,哦,這個世界大部分人并沒見過的Ilya的一面。
Lex Fridman(00:21:55)所以,總結一下,你對董事會結構感覺如何?
Sam Altman(00:21:55)是的,我覺得很好。
Lex Fridman(00:22:01)…以及對整個情況以及未來的發展方向?
Sam Altman(00:22:04)我對新的董事會非常滿意。在OpenAI的架構方面,董事會有任務來研究我們如何能使其更穩健。我們希望首先確定新的董事會成員,但是在這個過程中我們顯然對結構有了新的理解。我沒有什么深入的想法要表達。那是一次瘋狂而痛苦的經歷,就像是一場完美的風暴。對我來說,這是對未來可能發生的事情的預覽,隨著風險越來越大,我們需要有更穩健的治理結構、流程和人員。我很慶幸這些在早期就發生了,盡管它是一次令人震驚的痛苦經歷。
Lex Fridman(00:22:47)這是否讓你對信任他人更加猶豫?
Sam Altman(00:22:50)是的。
Lex Fridman(00:22:51)你是從個人角度來說的嗎?
Sam Altman(00:22:52)是的。我一直認為我是一個非常愿意信任他人的人。我總是堅持一種生活哲學,即不要總是過于焦慮,不要總是擔心那些極端的情況。即使為了能夠放下防備,稍微承受一些不利的情況,我也愿意。但這次的事情對我來說真的非常震驚,我完全沒有預料到。我并不喜歡這種感覺,這絕對改變了我對于默認信任他人以及為壞情況做計劃的態度。
Lex Fridman(00:23:21)你得謹慎對待這個。你擔心會變得過于憤世嫉俗嗎?
Sam Altman(00:23:26)我并不擔心會變得過于憤世嫉俗。我覺得我是一個極度樂觀的人,但我擔心的是我可能會變得不再那么容易相信他人。
Lex Fridman(00:23:36)其實,對于正在研發通用人工智能的人來說,到底是選擇信任還是不信任的方式更好,我也不太確定。你現在正在經歷的這個過程非常有趣。但在大體結構上,我更感興趣的是人的因素。你是如何找到那些能夠制造出獨特創新,同時又能作出明智決策的團隊的呢?因為隨著你開始賺取更多的收入,你的影響力也在增加,這個過程中會遇到越來越多奇怪的人。
Sam Altman(00:24:06)我想你可能會對董事會成員以及我應該對他們有怎樣的信任,或者我應該如何做出不同的決定提出各種觀點。但就團隊本身而言,我認為你會對我給出很高的評價。我對我每天工作的人們深感感激,我對他們充滿了信任和尊重,我認為能和這樣的人一起工作真的非常重要。
和馬斯克的官司
Lex Fridman(00:24:39)埃隆馬斯克,我們都熟識的那位,他起訴了 OpenAI。你認為他的批評主要指向哪些方面?他在何種程度上是對的?又在何種程度上是錯的?
Sam Altman(00:24:52)我真不清楚這具體是關于什么的。我們最初只想成為一個研究實驗室,對這項技術的發展方向并無清晰想法。因為那是七八年前的事,真的很難回到過去再次感受那時的情況。但那是在大語言模型成為熱門話題之前的時代。那個時候,我們對于開發API或者出售聊天機器人這樣的概念毫無概念。更別提我們會將研究成果產品化。所以我們當時的想法是,“我們只是想去做研究,至于研究成果用來做什么,我們還真不清楚。”我認為,對于許多全新的事物,你開始時總是摸黑前進,在過程中做出一些假設,而大多數假設最終證明是錯誤的。
(00:25:31)然后我們明白了我們需要改變做事的方式,還需要大量的資本投入。于是我們說,“好的,當前的結構似乎不太符合需要。我們應該如何調整這個結構呢?”然后你開始一次次地調整,最終你得到的東西看起來可能會令人驚訝。但我們是在不斷試錯,并且我認為我們在每個階段都做出了合理的決策。這并不意味著如果我們能回到過去,我不會用另一種方式去做。但是你當時并沒有預知未來的能力。但無論如何,關于馬斯克的真實動機,我并不清楚。
Lex Fridman(00:26:12你還記得OpenAI在博客文章中是如何回應的嗎?你能簡單總結一下嗎?
Sam Altman(00:26:21)哦,我們只是說馬斯克說了一堆事情。這是我們對事情發展的描述,或者說,這不是我們自己的描述,而是對事情發展過程的描述。我們盡量做到客觀理智,只是說,“這就是事情發展的歷史。”
Lex Fridman(00:26:44)我確實覺得馬斯克對你剛才提到的你們當時的不確定性有所誤解。你們那時只是一小群研究者,當所有人都嘲笑通用人工智能的想法時,你們卻正在熱衷地討論它。
Sam Altman(00:27:09)不久前,馬斯克也曾熱衷于討論火箭發射的想法,而當時人們也嘲笑他,所以我認為他應該能理解我們。
Lex Fridman(00:27:20)我還是覺得這里面有些個人情感的問題,OpenAI 和一些優秀的同事選擇與馬斯克分道揚鑣,所以這也是一種個人情緒。
Sam Altman(00:27:34)馬斯克選擇了離開。
Lex Fridman(00:27:37)你能詳細描述一下他離開的情況嗎?
Sam Altman(00:27:42)他認為OpenAI會失敗。他希望完全掌控并能夠扭轉局面。我們則想繼續按照現在的方向前進,這也是現在的OpenAI。他還希望特斯拉能進行通用人工智能的開發。他曾多次提出想把OpenAI變成一個他能掌控的盈利公司,或者與特斯拉合并。但我們并不想這樣做,于是他決定離開,這也沒什么。
Lex Fridman(00:28:06)所以你的意思是,正如博客文章所說,他希望OpenAI能被特斯拉收購,就像與微軟的合作伙伴關系,或者可能更深入一些。
Sam Altman(00:28:23)我的記憶中的提議就是,讓特斯拉收購OpenAI并全權掌控。我非常確定就是這樣。
Lex Fridman(00:28:29)那么,對于馬斯克來說,OpenAI中的'open'一詞是什么意思呢?我記得Ilya在電子郵件交流中有提到這個問題。那么對于你來說,當時它的意思是什么?現在又是什么意思呢?
Sam Altman(00:28:44)如果說回溯,我可能會選擇一個不同的名字。我認為OpenAI正在做的最重要的一件事就是把強大的技術免費提供給公眾,作為一種公共利益。我們在免費版本上不運行廣告。
Sam Altman(00:29:01)作為一種公共利益。我們的免費版本不運行廣告,也不通過其他途徑進行盈利。我們認為這是我們使命的一部分。我們希望免費將越來越強大的工具提供給人們,并讓他們使用。我認為這種開放性對我們的使命至關重要。我相信,如果我們提供優秀的工具給人們,教他們如何使用,甚至不用教,他們也會自己弄明白,然后利用這些工具為彼此創造一個美好的未來,那就太好了。所以,如果我們能繼續提供免費或低成本的、強大的人工智能工具,我認為這對我們實現使命來說是非常重要的。至于是否開源,我覺得我們應該開源一部分東西,對另一部分則不必。這的確會形成一種爭論的焦點,其中的微妙之處可能難以把握,但我認為找出這種微妙之處才是正確的答案。
Lex Fridman(00:29:55)所以他說,“把你的名字改為CloseAI,我就撤銷訴訟。”我的問題是,這是否會在關于名字的網絡熱詞戰場上引起爭議?
Sam Altman(00:30:06)我認為這體現了馬斯克對訴訟的嚴肅態度,我覺得這是一個很令人震驚的事情。
Lex Fridman(00:30:23)可能我理解錯了,但我認為這場訴訟在法律上并不嚴重。它更像是想要表達關于未來通用人工智能及目前領先的公司的看法。
Sam Altman(00:30:37)其實,Grok在被別人指出有些虛偽之后,才開始嘗試開源。但我并不認為他真正關注的問題是是否開源。
Lex Fridman(00:30:48)好的,我們以后可以再討論關于開源的問題。我覺得批評競爭對手是好事,說些狠話也沒關系。但我更傾向于友好競爭,而不是訴訟。
Sam Altman(00:31:01)我覺得這件事對于一個建設者來說十分不恰當。我一直尊敬馬斯克,他是我們這個時代的偉大建設者之一。我知道他深受那些惡意攻擊的困擾,所以他現在的行為讓我感到更加難過。
Lex Fridman(00:31:18)是的,他可能是有史以來最偉大的建設者。
Sam Altman(00:31:22)這讓我感到悲傷,我想很多人都會有同樣的感覺。很多人一直都很尊敬他。我在某次采訪中說我懷念以前的馬斯克,然后我收到了很多跟我有同樣感覺的回復。
開源
Lex Fridman(00:31:36)我認為他應該專心于競賽,讓X Grok和GPT進行公平競賽,這樣對所有人來說都是美好的。至于開源的問題,你認為有很多公司在考慮這個想法嗎?這是一個非常有趣的問題。我覺得Meta在這方面走在了前面,他們是第一個真正開源模型的公司。當然,他們開源的并不是最先進的模型,Llama Google也在考慮開源一個較小的版本。對于開源,你認為有哪些利弊?你曾經考慮過這個問題嗎?
Sam Altman(00:32:22)是的,我認為開源模型肯定有一席之地,尤其是人們可以在本地運行的較小模型,我認為對此有很大需求。我認為會有一些開源模型,也會有一些閉源模型。這并不會出乎其他生態系統的預料。
Lex Fridman(00:32:39)我聽了關于這起訴訟和所有這類事情的全部播客。他們更擔心從非營利性轉變為有盈利上限的先例。這為其他創業公司設定了什么先例嗎?
Sam Altman(00:32:56)我會強烈勸阻任何計劃從非盈利創業開始,后期增設盈利部門的公司。我會強烈勸阻他們這么做。我不認為我們會設定一個先例。
Lex Fridman(00:33:05)好的。所以大多數創業公司應該……
Sam Altman(00:33:08)當然。
Lex Fridman(00:33:09)再說一次。
Sam Altman(00:33:09)如果我們早知道會發生什么,我們也會那樣做。
Lex Fridman(00:33:12)嗯,在理論上,如果你在這里操作得當,有一些稅收激勵或者什么,但是...
Sam Altman(00:33:19)我不認為大多數人會從這個角度考慮這些事情。
Lex Fridman(00:33:22)如果你這樣做,對于創業公司來說,根本不可能節省很多錢。
Sam Altman(00:33:27)不,我認為有些法律會使這變得非常困難。
Lex Fridman(00:33:30)你希望與馬斯克的關系如何發展?這種緊張,這種舞步,你希望這是什么?如果我們從現在起1、2、3年后,你與他的個人關系,比如友誼,友好的競爭,所有這種類型的事情。
Sam Altman(00:33:51)是的,我真的很尊重馬斯克,我希望未來幾年我們能有一個和睦的關系。
Lex Fridman(00:34:05)是的,我希望你們兩個這個月就能有一個和睦的關系,只是競爭和獲勝,一起探索這些想法。我猜想有些人才競爭或者什么的,但是應該是友好的競爭。只是創造創新的產品。馬斯克在創造創新產品方面非常厲害。你也是。
Sora
(00:34:32)所以,說起Sora,這真是個很酷的話題。我可以問很多問題。首先,我得說它真的很神奇。無論是從產品層面還是哲學層面看,都是如此。那么,我現在想提一個技術/哲學相關的問題,你認為在對這些圖像片段與語言token進行訓練時,它對世界的理解比GPT-4是多還是少?
Sam Altman(00:35:04)我覺得所有這些模型對世界模型的理解都比我們認為的要多。然而,因為它們也存在很多明顯的誤解或者錯誤,我們很容易就注意到它們的弱點,然后說,“看,這都是假的。”但其實并非全然如此。有些部分是有效的,有些部分是無效的。
(00:35:28)我記得我剛開始看Sora的視頻的時候,我看到一個人走過某個東西,遮蔽了幾秒鐘,然后走開,那個東西還在那里。我覺得,“哇,這還真不錯。”或者有些例子,底層的物理規律在一個序列的好幾步中表現得很好,我心想,“哇,這真的很厲害。”但從根本上看,這些模型只是在不斷進步,這種情況會繼續發生。如果你看看從DALL·E 1到2,再到3,最后到Sora的發展軌跡,你會發現每個版本都有人冷嘲熱諷,但看看現在的成果。
Lex Fridman(00:36:04)嗯,你剛提到的遮蔽,基本上是在足夠好地模擬世界的三維物理現象,以便捕捉到這類狀況。
Sam Altman(00:36:17)嗯…
Lex Fridman(00:36:18)或者,你可以告訴我,為了應對遮蔽,世界模型需要做些什么?
Sam Altman(00:36:24)是的。我想說,它在處理遮蔽問題上做得很好。但是,我認為它擁有一個出色的基于3D的世界模型,這可能有點過于推測了。
Lex Fridman(00:36:33)但是,我們能不能通過這種二維訓練數據的方法達到這個效果呢?
Sam Altman(00:36:39)看起來,這種方法可能會走得比我們想象的還要遠。我不想過多地預測它能突破哪些限制,不能突破哪些,但是…
Lex Fridman(00:36:46)你們發現了系統的哪些有趣的限制?我是說,像你們發布的那些趣味性問題。
Sam Altman(00:36:52)有各種各樣有趣的現象。比如,視頻中貓隨機長出額外的肢體。你隨便選一些,但我們還面臨很多問題,有很多弱點。
Lex Fridman(00:37:02)你認為這是這種方法的根本性問題,還是只需要更大的模型、更好的技術細節或更好的數據就能解決貓隨機長出的問題?
Sam Altman(00:37:19)我會對兩者都表示贊同。我覺得這種方法與我們的思考和學習方式存在某種差異。但同時,我也認為隨著規模的增大,它的表現會變得更好。
Lex Fridman(00:37:30)正如我提到的,LLM有文本tokens,Sora有視覺貼片,所以它將所有的視覺數據,包括各種類型的視頻和圖像轉換為貼片。訓練的程度是完全自我監督的嗎,還是進行了一些手動標記?人類在其中的參與程度是多少?
Sam Altman(00:37:49)我的意思是,沒有具體談論Sora的方法,我們在我們的工作中使用了大量的人類數據。
Lex Fridman(00:38:00)但并不是互聯網規模的數據嗎?所以涉及到很多人。Sam,“大量”是個復雜的詞。
Sam Altman(00:38:08)我認為在這種情況下,“大量”是個合適的詞。
Lex Fridman(00:38:12)因為對我來說,“大量”……聽著,我是個內向的人,當我和三個人一起出去玩,那對我來說就是很多人了。四個人,對我來說也是很多。但我想你的意思是超過……
Sam Altman(00:38:21)對的,為這些模型標記數據的人是超過三個的。
Lex Fridman(00:38:24)好的。但是從根本上說,有很多的自我監督學習。因為你在技術報告中提到的是互聯網規模的數據。這真是……就像詩一樣美麗。所以有很多數據并沒有由人類標記。它是以這種方式自我監督的嗎?
Sam Altman(00:38:44)是的。
Lex Fridman(00:38:45)那么問題就是,互聯網上有多少數據可以用于這種自我監督的方式,只要我們知道自我監督的細節。你有考慮公開一些更詳細的信息嗎?
Sam Altman(00:39:02)我們做過了。你是指特別針對源碼嗎?
Lex Fridman(00:39:04)是的,特別針對源碼。因為很有趣的是,大語言模型現在是否可以開始向視覺數據領域發展,要做到這一點需要做些什么呢?
Sam Altman(00:39:18)我覺得是可以的,但我們還需要做更多的工作。
Lex Fridman(00:39:22)明白。那可能存在哪些危險?你為何擔心發布系統呢?
Sam Altman(00:39:29)坦白說,我們在發布系統之前必須做的一件事就是讓它達到一種足夠的效率,以便滿足人們對此的期待,我不希望低估這一點。這里還有許多工作要做。你可以想象一下深度偽造和誤導信息等問題。我們試圖在發布的產品上考慮得更深遠,很容易就能想到這可能帶來的問題。
Lex Fridman(00:40:05)這里有很多棘手的問題,你正在處理一片非常復雜的領域。你認為訓練AI在版權法下應該或者說是公平使用嗎?
Sam Altman(00:40:14)我覺得這個問題背后的意思是,創造有價值數據的人是否應該有某種方式獲得補償,我認為答案是肯定的。我還不確定具體的答案是什么。人們提出過很多不同的建議。我們嘗試了一些不同的方案。但如果我是一位藝術家,例如,首先,我希望能夠選擇不讓別人用我的風格創作藝術。其次,如果他們確實以我的風格創作藝術,我希望有一種經濟模型與之關聯。
Lex Fridman(00:40:46)是的,就像從CD轉變為Napster,再轉變為Spotify的過程。我們必須找出一種適合的模型。
Sam Altman(00:40:53)模型會改變,但人們還是要得到報酬。
Lex Fridman(00:40:55)對,如果我們把視角再拉遠一些,應該有一種激勵機制鼓勵人們繼續創造出更酷的東西。
Sam Altman(00:41:02)我擔心的每一件事中,人類會繼續做出酷的事情,社會也會找到一些方式來回報他們。這似乎是我們的本能。我們想要創新,我們想要有用,我們想要以各種方式獲得尊重。我認為這一點不會改變。
Lex Fridman(00:41:17)但獎勵可能并不僅僅是金錢。它可能是名譽,或者其他新穎有趣的東西-
Sam Altman(00:41:25)或許,這個獎勵在其他方面具有經濟價值。我認為我們還未見識到經濟體系將來的所有可能發展形態。
Lex Fridman(00:41:31)是的,但藝術家和創作者們對此感到擔憂。當他們看到Sora,他們感到震驚。
Sam Altman(00:41:36)的確。藝術家們在攝影初現時也非常憂慮,然后攝影變成了一種新的藝術形式,人們通過攝影賺了很多錢。我認為類似的事情會繼續發生。人們會以新的方式使用新的工具。
Lex Fridman(00:41:50)如果我們只看YouTube或者類似的平臺,那么在接下來的五年里,有多少內容會采用像Sora這樣的AI生成,你認為呢?
Sam Altman(00:42:01)人們經常討論的是,AI在五年內會接手多少工作。人們普遍的認知是,當前有多少工作崗位會被AI完全取代?但我認為,更重要的問題不是AI將做多少工作,而是AI將在一定的時間范圍內完成多少任務。因此,如果你考慮所有的五秒任務,五分鐘任務,五小時任務,甚至是五天的任務,AI能完成多少?我認為這個問題比AI能做多少工作更有趣,更具影響力,也更為重要,因為AI是一個工具,它將以越來越高的精細度,和越來越長的時間范圍處理越來越多的任務,讓人們在更高的抽象層次上操作。也許人們在他們的工作中會變得更加高效。在某個階段,這不僅僅是量的變化,而且也是關于你能處理的問題類型的質的變化。我認為對于YouTube上的視頻也是如此。許多視頻,也許大部分,都會在制作過程中使用AI工具,但他們仍然需要人來思考,組織,執行部分工作。就像導演和制片人一樣。
Lex Fridman(00:43:18)是的,這個觀點很有趣。雖然有些恐怖,但是思考起來很有意思。
Lex Fridman(00:43:27)我傾向于相信人們喜歡觀看其他人,或者說喜歡觀看其他人類的活動。
Sam Altman(00:43:27)人們確實非常關注其他人。
Lex Fridman(00:43:29)是的。如果有比人類更酷的東西,人們會對此感興趣一兩天,然后他們會回歸到對人類的關注。
Sam Altman(00:43:39)這似乎是根深蒂固的想法。
Lex Fridman(00:43:41)就像整個下棋的事情,“哦,是的,”但現在讓我們大家都繼續下棋。讓我們忽略這個明顯的事實,即人類在下棋方面與AI系統相比實在是太弱了。
Sam Altman(00:43:52)我們仍在進行跑步比賽,而汽車的速度要快得多。我是說有很多這樣的例子。
Lex Fridman(00:43:56)是的。也許它會以類似Adobe套件的方式成為工具,能讓我們更方便地制作視頻等等。
(00:44:07)聽著,我討厭站在鏡頭前。如果我能找到一種方式不必站在鏡頭前,我會很高興。遺憾的是,這將需要一段時間。生成面部圖像的技術正在發展中,但生成特定人物的面部圖像與生成一般人物的面部圖像相比在視頻格式方面還是相當棘手。
GPT-4
(00:44:24)讓我問你關于GPT-4的問題。有很多問題。首先,的確是非常驚人的。回頭看,3、5和4可能都會是與ChatGPT相關的歷史性的轉折點。
Sam Altman(00:44:40)也許五會是那個關鍵的時刻。我不知道。未來還很難預測。
Lex Fridman(00:44:44)我們永遠不會知道。這就是關于未來的煩人之處,很難預測。但對我來說,回過頭來看,GPT-4、ChatGPT在歷史上都是相當令人印象深刻的。所以我想問,對你來說,GPT-4和GPT-4 Turbo的最令人印象深刻的能力是什么?
Sam Altman(00:45:06)我覺得它一般般。
Lex Fridman(00:45:08)這也是典型的人性,我們總是很快就習慣了好的事物。
Sam Altman(00:45:11)不,我認為這是一件驚人的事情,但相比于我們需要達到的目標和我相信我們將會達到的地方,現在這個版本還不夠好。在GPT-3時,人們會覺得,“哦,這是了不起的。這是科技奇跡。”而它的確是。但現在我們有了GPT-4,再看看GPT-3,你會覺得,“相比之下,GPT-3的表現實在太差了。”我希望5和4之間的進步幅度將和4和3之間的一樣大。我覺得,我們的任務是要生活在未來的幾年里,記住我們現在所使用的工具在回頭看看的時候可能會很糟糕,這就是我們推動未來進步的方式。
Lex Fridman(00:45:59)GPT-4在哪些方面最令人驚嘆,但又存在哪些明顯的限制呢?
Sam Altman(00:46:05)它最擅長的事情是什么?
Lex Fridman(00:46:06)那些讓你覺得它最棒的地方和這些優點的局限性是什么,從而讓你明白它并非完美,也為你對未來的期望提供了靈感?
Sam Altman(00:46:16)最近我更多地將它用作腦力激蕩的伙伴。
Lex Fridman(00:46:23)對,這樣用起來很棒。
Sam Altman(00:46:25)里面有一種令人驚奇的東西。當人們談論它,或者說它能做什么,他們會說:“哦,它幫我更高效地編碼,幫我更快更好地寫作,幫我從一種語言翻譯成另一種語言。”所有這些都很了不起,但我更看重它作為一個創新性的腦力激蕩伙伴的角色,例如“我需要為這個東西取一個名字,我需要以新的方式思考這個問題,我不知道接下來該怎么做。”這些都讓人預見到一些我希望看到更多的東西。
(00:47:03)另一件你可以看到的事情是,當我可以在長期任務上提供幫助時,將問題分解成多個步驟,可能執行其中的一些步驟,比如搜索互聯網,編寫代碼等等,然后再將這些整合在一起。雖然這種情況并不多見,但當它起作用的時候,感覺就像魔法一樣。
Lex Fridman(00:47:24)與人類進行迭代交互,對我來說效果很好。你的意思是……
Sam Altman(00:47:29)當它能夠自己解決10個步驟的問題時,與人類的迭代交互就會變得更頻繁。
Lex Fridman(00:47:33)哦。
Sam Altman(00:47:34)這并不經常發生,有時候可以。
Lex Fridman(00:47:37)你是說添加多個抽象層次,還是只是順序執行?
Sam Altman(00:47:40)兩者都有,分解問題,然后在不同的抽象層次上進行操作,最后再將結果整合在一起。看,我并不想輕視GPT-4的成就,但我也不想過分夸大其實力。我認為我們正在處于一個指數型增長的階段,我們很快就會回頭看GPT-4,就像我們現在看GPT-3一樣。
Lex Fridman(00:48:03)說到這里,我的意思是ChatGPT是一個轉折點,開始讓人們更加相信某種事物,但這種信念的增長并非發生在OpenAI內部。
Sam Altman(00:48:04)絕對。
Lex Fridman(00:48:16)也許這里有些人持有這種信念,但是你想到的是……
Sam Altman(00:48:19)在這個意義上,我確實認為這會是一個時刻,大多數人從不相信轉變為相信。這更多的是關于ChatGPT的接口。而接口和產品,我也包括了模型的后期訓練以及我們如何調整它使其對你有幫助,如何使用它,其實這和底層模型本身并不直接相關。
Lex Fridman(00:48:38)這些因素中的每一個有多重要?底層模型和RLHF或類似的東西調整它使其更吸引人,更有效,更利于人類生產力的提升。
Sam Altman(00:48:55)我的意思是它們都非常重要,但是RLHF,后訓練步驟,那些從計算角度看,我們在基礎模型之上加的一些額外內容,雖然這需要大量的工作,但這是非常重要的,這還不包括我們圍繞它建立的產品。在某種意義上,我們必須做兩件事情。我們需要創造出底層的技術,然后我們要找出如何將其制成一個人們會熱愛的產品,這不僅僅是關于實際的產品開發工作,還有另外一步是如何調整它并使其變得有用。
Lex Fridman(00:49:37)以及你如何使其能夠適應大規模的使用,讓很多人能同時使用。所有這類的事情。
Sam Altman(00:49:42)還有那個。但那是一個我們已知的難題。我們知道我們需要將其擴大規模。我們必須做兩件之前從未完成過的事情,我都認為這兩件事是相當重大的成就,然后還有很多事情,像擴大規模這樣的,其他公司之前都已經做過。
Lex Fridman(00:50:01)GPT-4到GPT-4 Turbo的上下文窗口從8K到128K的token的變化是如何的?
Sam Altman(00:50:13)大部分時間,大多數人并不需要使用全部的128。雖然如果我們展望遙遠的未來,將會有數十億的上下文長度。你將輸入的所有信息和歷史數據,隨著時間的推移,這個模型會越來越理解你,這將是非常棒的一件事。但是現在,人們使用這些模型的方式,并沒有達到這個程度。有時人們會在論文中發布大量的代碼,但是大部分情況下,模型并沒有充分利用長上下文。
Lex Fridman(00:50:50)我喜歡你的這個“我有一個夢想”的演講。有一天,你將根據你的人格或你一生的全部經歷而被評價。這很有意思。所以,你希望能擴展的部分,就是更大的上下文。
Sam Altman(00:51:06)我曾經在網上看過一個影片,我可能記錯了數字,但是它是比爾·蓋茨在講述一臺早期計算機的內存量,可能是64K,也可能是640K。他當時無法想象,世界最終需要在一臺計算機中有千兆字節甚至太字節的內存。你總是需要跟隨技術的指數增長,我們將找出如何更好地利用這些技術。我現在真的無法想象上下文鏈接在未來會增長到數十億。可能實際上并不會真的增長到那個數量,但感覺就像是那樣。我知道一旦我們使用了這個功能,就真的不想再回去。
Lex Fridman(00:51:56)是的,即使現在說十年后會有數十億的上下文長度,可能也會顯得愚蠢,因為那時候可能是萬億甚至更高。
Sam Altman(00:52:04)確實。
Lex Fridman(00:52:04)可能會有某種突破,讓我們感覺像是無限的上下文。但即使是120,我必須承認,我沒有把它推到那個程度。可能會輸入整本書或部分書籍等,還有學術論文。你看到GPT-4有哪些有趣的應用場景?
Sam Altman(00:52:23)最讓我感興趣的并不是我們可以談論的任何特定用例,而是那些在某種程度上,這主要是年輕人,把它作為各種知識工作任務的默認起點的人們。而且它能做很多事情都做得相當不錯。你可以使用GPT-V,你可以用它來幫你編寫代碼,你可以用它來幫你搜索,你可以用它來編輯論文。對我來說最有趣的是那些把它作為他們工作流程起點的人。
Lex Fridman(00:52:52)我也在很多事情中這樣做。我把它當作閱讀書籍的伙伴。它幫助我思考,幫我理清想法,特別是當我正在閱讀的書籍是經典之作時。所以它寫得非常好。我發現,對于深入研究的主題,它甚至比維基百科還要好。它更深入,更全面。或者說,可能是我個人的感覺,但它比維基百科的文章更能激發我深入思考。我不太確定具體是什么原因。
(00:53:22)你提到了這種合作。我不確定魔力是在這里,還是在那里,還是在兩者之間的某個地方。我不確定。但當我開始用GPT做知識任務時,我總會擔心,我通常需要在后面進行事實核查,檢查它是否編造了一些東西。你是如何發現GPT可以編造出一些看似非常有說服力的虛假內容的呢?那么你是如何確保它基于真實的呢?
Sam Altman(00:53:55)這顯然是我們極度關注的一個領域。我認為隨著即將發布的新版本,情況會有大幅改善,但我們還需要繼續努力,今年我們不可能解決所有問題。
Lex Fridman(00:54:07)那么,隨著它變得越來越好,你開始越來越少地進行事實核查,對吧?
Sam Altman(00:54:15)我對此持兩面看法。我認為,人們比我們經常認為的更能熟練地使用技術。
Lex Fridman(00:54:15)當然。
Sam Altman(00:54:21)并且,人們似乎真的很了解GPT,了解這些模型有時會產生一些假象。如果這關系到重要的事情,你必須去核查它。
Lex Fridman(00:54:27)然而,記者們似乎并沒有理解到這一點。我看到一些記者在使用GPT-4時顯得不夠認真,有些粗心大意。
Sam Altman (00:54:34)在我想要批判記者的眾多原因中,這并不是我對他們最大的批評。
Lex Fridman (00:54:40)嗯,我認為更大的批評可能是記者所面臨的壓力和動機,也就是說,你必須迅速地工作,這就是一條捷徑。我希望我們的社會能夠像……
Sam Altman (00:54:53)我也希望。
Lex Fridman (00:54:55)......像是花費數日和數周的新聞工作,獎勵深度新聞的出色表現。同時也是以一種平衡的方式呈現事情,既贊揚人們又批評他們,即使批評是吸引點擊的東西,編造謠言也可以吸引點擊,以及完全誤導的標題。我確認你可能有很多人會批判說:“嗯,所有那些戲劇性的事可能吸引了很多點擊。”
Sam Altman (00:55:21)很可能是的。
內存&隱私
Lex Fridman (00:55:24)這是我希望能看到改變的人類文明中一個更大的問題。這是我們稍微慶祝一下的地方。你已經讓ChatGPT擁有了記憶的能力。你已經在嘗試關于先前對話的這個問題。還有關閉記憶的能力。我有時候也希望我能做到這一點。只是根據需要開啟和關閉。我在想有時候酒精可以做到這一點,但我想可能并不是最佳的選擇。你在這個方面有什么體驗,比如說嘗試記住對話和不記住對話這個想法……
Sam Altman (00:55:56)我們在這方面的探索還在非常初期階段,但我認為人們想要的,至少我為自己想要的,是一個隨著時間的推移能更了解我,對我越來越有用的模型。這是一個初步的探索。我認為還有很多其他的事情要做,但那是我們想要的方向。你想使用一個模型,可能在你的生活或者使用一個系統的過程中,它會有很多模型,并且隨著你生活的推移它會變得越來越好。
Lex Fridman (00:56:26)是的。這個問題有多困難?因為現在更多的是記住一些小事實和偏好等。記憶是如何工作的呢?你不希望GPT記住你在11月經歷的所有困難和所有的戲劇,然后你可以……
Sam Altman (00:56:26)是的。是的。
Lex Fridman (00:56:41)因為現在你顯然在對它進行一些阻止。
Sam Altman(00:56:43)我希望的不僅僅是記住這些經歷,我更希望它能吸取這些教訓,并在未來提醒我應該怎樣做得更好,或者需要注意什么。我們在生活中都會以不同程度從經驗中學習,我希望我的AI智能體也能同樣從這些經驗中獲得收獲。所以,如果我們回想起那無數無數的語境長度,如果我能把我與生活中任何人的所有對話都放進去,如果我能把所有的郵件輸入輸出,每次我提問時,把我所有的輸入輸出都放到語境窗口里,我覺得那會很酷。
Lex Fridman(00:57:29)是的,我認為那將非常酷。有時人們會擔心這種做法會侵犯隱私。你對AI能更有效地整合所有的經驗和你的所有數據給出建議這個方面有何看法?
Sam Altman(00:57:48)我認為正確的答案就是讓用戶自己選擇。我希望能夠從我的AI智能體的記錄中刪除我想要刪除的任何信息。如果我不希望它記住什么,我也希望有這個功能。你和我對于我們自己的AI在隱私和功能性之間的權衡可能會有不同的觀點。
Sam Altman(00:58:00)…對于OpenAI在隱私與效用的權衡上,我們的觀點可能會有所不同,這是完全可以接受的。但我認為最好的解決方法就是讓用戶能夠簡單容易地作出選擇。
Lex Fridman(00:58:08)但是,公司應當對用戶的選擇具有高度的透明度。因為有時候,一些公司在過去可能對此有一些含糊其辭,比如說,“我們默認在收集所有你的數據。我們會用它來做一些好事,比如推送廣告等。”但是,對于這些詳細情況并沒有足夠的透明度。
Sam Altman(00:58:31)這個說法完全正確。你之前提到我在屏蔽11月的事情。
Lex Fridman(00:58:35)我只是跟你開個玩笑。
Sam Altman(00:58:36)那確實是一件讓我痛苦不堪的事情,也讓我長時間無法行動。那段時間里,我最難做的就是努力工作,因為我要在震驚和痛苦中嘗試回到這里,把事情的碎片重新拼湊起來。但其實沒有人真的在乎這點。團隊對我很諒解,那段時間,我的工作效率并沒有達到平時的水平。但有一段時間,做好兩方面的事情真的很困難。直到有一天早上醒來,我想,“那是一件對我來說非常可怕的事情。我可以選擇永遠做受害者,也可以說這是我人生中最重要的工作,我需要再投入其中。”并不是說我已經把那件事遺忘了,有時我還會在半夜醒來,想起那件事,但我確實覺得我有義務繼續前進。
Lex Fridman(00:59:32)你說得很好,但可能還有一些影響一直存在。比如,我會擔心你提到的信任問題,變得對人們過于多疑,而不是簡單地相信每個人或者大多數人,比如按照你的直覺行事。這是個很棘手的問題。
Sam Altman(00:59:50)當然。
Lex Fridman(00:59:51)我在業余的探索中發現,在澤連斯基政府和普京政府以及戰時的高壓環境下,不信任會導致你開始孤立自己,視野變得狹隘。這是個人性的問題。你似乎已經坦然接受了這個問題,從中學到了好的教訓,感受到了愛,并讓愛給你帶來動力,這很好,但還是有一些影響可能會留下。我想問的一個問題是,你對GPT能做什么,不能做什么有什么直覺。比如說,它為生成的每一個token分配相同的計算力。在這種方法中,是否有空間容納更深入、有序的思考?
Sam Altman(01:00:51)我認為我們會有新的方式來處理這種思考方式。
Lex Fridman(01:00:55)它在架構上會像我們現在看到的大語言模型那樣嗎?是不是會在現有的模型基礎上添加一層新的結構?
Sam Altman(01:01:04)我可以想象出許多實現這種想法的方式。但我認為這并不如你所提的問題重要,也就是我們是否需要一種更慢的思考方式,這樣答案就不必立刻出來……我猜你可能是想說,你希望AI能在遇到更棘手的問題時更深入地思考,而在遇到更簡單的問題時能更快地給出答案。我認為這是非常重要的。
Lex Fridman(01:01:30)這是否就像我們人類的思考方式,我們應該能夠深入思考?這種直覺正確嗎?
Sam Altman(01:01:34)我覺得這是一個合理的直覺。
Lex Fridman(01:01:37)有趣。所以一旦GPT達到GPT-7那樣的水平,它就能立即看到,“這就是費馬定理的證明”?
Sam Altman(01:01:49)我覺得你可能希望能夠將更多的計算資源分配給更困難的問題。我覺得如果你問一個這樣的系統,“證明費馬的最后定理”,相比于“今天是幾號?”,除非它已經知道并記住了證明的答案,否則它需要去弄清楚,這看起來需要更多的計算。
Lex Fridman(01:02:20)但是它能否就像一個LLM在自言自語一樣?
Sam Altman(01:02:25)也許可以。我是說,你可以想象出許多可能的工作方式。至于哪種是正確的,或者最好的方式,我們還不知道。
Q*
Lex Fridman(01:02:37)這讓我想起了Q*背后的神秘故事。這個神秘的Q*項目是什么?它也在同一個核設施里面嗎?
Sam Altman(01:02:50)我們沒有核設施。
Lex Fridman(01:02:52)嗯。這就是擁有核設施的人總是會說的話。
Sam Altman(01:02:54)我會很愿意擁有一個秘密的核設施,但是我們并沒有。
Lex Fridman(01:02:59)好的。
Sam Altman(01:03:00)也許將來有一天會有。
Lex Fridman(01:03:01)將來?好的。人總是有夢想的。
Sam Altman(01:03:05)OpenAI并不擅長保密。如果我們能有那樣的東西就好了。我們一直被大量的泄密事件困擾,如果我們能有那樣的東西就好了。
Lex Fridman(01:03:14)你能談談Q*是什么嗎?
Sam Altman(01:03:16)我們還沒準備好討論這個。
Lex Fridman(01:03:17)看,但這樣的回答就表示確實有什么東西值得談論。Sam,這聽起來很神秘。
Sam Altman(01:03:22)我的意思是,我們正在進行各種各樣的研究。我們長久以來都認為在這些系統中,改善推理能力是我們的重要目標。我們還沒找到完全的答案,但我們對此非常感興趣。
Lex Fridman(01:03:48)會有那么一刻嗎,無論是Q*還是其他,會有類似于ChatGPT的飛躍嗎,你有這樣的感覺嗎……
Sam Altman(01:03:56)這是個好問題。我怎么看呢?很有趣。對我來說,所有這些都感覺上像是連續的進步。
Lex Fridman(01:04:08)對。你在說的就是你們正在逐漸攀升一個指數曲線。但對于我們這些旁觀者來說,它看起來像是有飛躍。但對你來說,并不是這樣的?
Sam Altman(01:04:22)我在想我們是不是應該……部分原因是我們采用迭代部署的方式,而不是秘密研發直到我們有了GPT-5,我們選擇公開談論GPT-1,2,3,和 4。其中一部分原因是我認為AI和驚喜是無法共存的。同時,世界,人們,機構,無論你怎么稱呼它們,都需要時間來適應和思考這些事情。我認為OpenAI做得最好的一件事就是這種階段性的策略,我們讓世界去關注AI的進步,認真對待通用人工智能,思考我們在處于壓力之下需要做出倉促決定前,我們希望怎樣的系統,結構和管理措施。
(01:05:08)我認為這個策略非常好。但你們像你這樣的人還是覺得有這些飛躍,這讓我覺得,也許我們應該更加逐步地發布我們的成果。我不知道那會意味著什么,我現在還沒有答案,但我們的目標并不是讓世界對我們的更新感到震驚。正相反。
Lex Fridman(01:05:29)對,肯定的。更多的階段性更新會很好。我認為這對每個人來說都是好事。
Sam Altman(01:05:34)但這就是我們想要做的,這是我們的目標策略,我覺得我們的執行可能還有些出入。因此,或許我們應該以一個不同的方式發布GPT-5或者類似的產品。
Lex Fridman(01:05:44)是的,4.71,4.72。但人們總是喜歡慶祝,比如慶祝生日。不知道你是否了解人類,他們總是喜歡設立這樣的里程碑。
Sam Altman(01:05:54)我確實了解一些人類。人們確實喜歡里程碑,這點我完全明白。我認為我們也喜歡慶祝這些里程碑。能在一項任務上取得成功,然后開始下一項任務,這總是讓人感到快樂。但是,我覺得我們在這一點上可能有些偏頗。
GPT-5
Lex Fridman(01:06:13)那么,你們什么時候會再發布GPT-5?
Sam Altman(01:06:15)我不知道,這就是我最誠實的回答。
Lex Fridman(01:06:18)哦,這是真誠的回答。如果它會在今年發布,就眨兩下眼吧。
Sam Altman(01:06:30)我們會在今年發布一款令人驚喜的新模型,但我還不確定我們會給它起什么名字。
Lex Fridman(01:06:36)那就引出了我們應該如何發布這款產品的問題。
Sam Altman(01:06:41)在接下來的幾個月里,我們會發布很多不同的產品。我覺得這將會非常棒。在我們談論一個可能叫GPT-5、或者可能不叫GPT-5的模型,或者這個模型可能比你對GPT-5的預期稍微差一點、或者稍微好一點之前,我認為我們有很多其他重要的產品需要先行發布。
Lex Fridman(01:07:02)我也不知道應該從GPT-5中期待什么。你讓我感到既緊張又興奮。對于所謂的GPT-5,不論最后叫什么,要克服的最大挑戰和瓶頸是什么?只是隨便問問。是在計算上?還是在技術上?
Sam Altman(01:07:21)其實都有。你知道,最大的解鎖因素是什么?是需要更大的計算機嗎?是有新的秘密嗎?還是其他什么因素?實際上,我們需要考慮的就是這些因素的總和。OpenAI的優勢在于……這實際上是一個我要引用的Ilya的原話,我可能會說得不太準確,但大意就是,“我們把200個中等規模的事物融合成一個巨大的整體。”
Lex Fridman(01:07:47)所以這個分布式創新正在不斷進行?
Sam Altman(01:07:50)是的。
Lex Fridman(01:07:51)包括在技術方面?
Sam Altman(01:07:53)特別是在技術方面。
Lex Fridman(01:07:55)例如詳細實施的方法?
Sam Altman(01:07:56)是的。
Lex Fridman(01:07:56)像你們一樣處理每一個細節…這和不同的、散布的團隊協作又是如何結合的?中等規模的事物又是如何最終構建成一個完整的巨大的Transformer的?
Sam Altman(01:08:08)有一些人需要考慮如何把所有的事物整合在一起,但大多數人都試圖在腦海中構建整體的概念圖像。
Lex Fridman(01:08:14)哦,就是說每個團隊、每個個體貢獻者都試圖保留對整體的理解?
Sam Altman(01:08:17)在一個宏觀層面上,是的。你當然不會完全知道每一部分是如何運作的,但我通常認為,有時候放大視野看看全局是很有用的。我認為這對于技術問題是適用的,對于業務創新也是如此。但是,事情會以驚人的方式組合在一起,即使你大部分時間都在一個區域內深度工作,對整個全局的理解也會帶來意想不到的洞見。實際上,我曾經擁有并且非常寶貴的一件事就是,我曾經有一個對整個科技行業所有或者大部分前沿的清晰地圖。有時我能看到這些關系或者新的可能性,如果我只是深入某一個領域,我就不可能想到,因為我沒有所有的數據。現在我已經沒有那么多了。我目前深入的太多了。但是我知道這是一件有價值的事情。
Lex Fridman(01:09:23)你已經不再是你過去的樣子,Sam。
Sam Altman(01:09:25)我現在的工作和我過去的工作大不相同。
7萬億美元的計算
Lex Fridman(01:09:28)既然我們提到了放大視野,讓我們再放大一個你說過的可能比較深遠的話題,你在推特上說過需要7萬億美元。
Sam Altman(01:09:41)我從未在推特上提到過這個,我沒有說過,“我們正在籌集7萬億美元。”那樣的話。
Lex Fridman(01:09:45)哦,那是別人說的?
Sam Altman(01:09:46)是的。
Lex Fridman(01:09:47)哦,但你似乎說了,“隨便,也許是八個”,對吧?
Sam Altman(01:09:50)好的,一旦世界上出現了誤導性信息,我就會用模因來反駁。
Lex Fridman(01:09:53)哦,你用模因來反駁。但誤信息可能有一些深層次的見解。
Sam Altman(01:10:01)看,我認為計算能力將是未來的“貨幣”。我認為它可能會成為世界上最寶貴的商品,我們應該大力投資以增加更多的計算能力。我認為,計算力市場將有其獨特性。人們通常考慮的是手機芯片等產品的市場。你可以這么說,好吧,世界上有80億人口,也許70億人有手機,或者說60億人。他們每兩年更換一次手機,所以每年的手機芯片市場需要是30億。即使你生產了300億,你也不會賣出10倍的手機,因為每個人只需要一部手機。
(01:10:50)但計算能力的市場不同。智能將更像能源或者類似的東西,我認為真正有意義的是,以價格X,世界將使用多少計算能力,以價格Y,世界將使用多少計算能力。因為如果計算能力真的很便宜,我會讓它全天候為我閱讀電子郵件,給我的工作或思考建議,甚至嘗試治療癌癥,如果計算能力真的很貴,可能我只會用它來治療癌癥。
(01:11:20)所以我認為世界將需要大量的計算能力。這在很多方面都是困難的。能源是最大的問題,建設數據中心也有困難,供應鏈也是難題,當然,制造足夠的芯片也是一大挑戰。但這似乎是事情的發展趨勢。我們將需要一種現在難以想象的大量計算能力。
Lex Fridman(01:11:43)你如何解決能源問題?是用核能……
Sam Altman(01:11:46)我相信是的。
Lex Fridman(01:11:47)…融合?
Sam Altman(01:11:48)我相信是的。
Lex Fridman(01:11:49)是核融合?
Sam Altman(01:11:50)是的。
Lex Fridman(01:11:51)誰將解決這個問題呢?
Sam Altman(01:11:53)我覺得Helion在聚變領域做得最好,但我也很高興看到現在有人在這個領域進行競爭。對于核裂變,我也感覺很神奇,我希望全世界可以重新接受它。看著它的歷史發展讓我感到非常遺憾,我希望我們能夠重新把握它,讓它再次發揮作用。
Lex Fridman(01:12:08)所以,你認為解決這個問題的一部分是核裂變?就像我們現在使用的那種核反應堆?由于切爾諾貝利等事故,很多人對此感到恐懼,你怎么看?
Sam Altman(01:12:16)嗯,我認為我們需要建造新的反應堆。我覺得那個行業一度處于停滯狀態,這讓我感到遺憾。
Lex Fridman(01:12:22)那么你認為這個停滯是由于大眾的恐慌引起的嗎?
Sam Altman(01:12:25)是的。
Lex Fridman(01:12:26)我不知道你了解人性到什么程度,但我要說,這恐慌正是核裂變面臨的一個安全威脅。人們似乎真的對它感到恐懼。這是我們在考慮核裂變時必須要納入考慮的一個因素,所以我們需要讓人們了解它的安全性,贏得他們的信任。
Sam Altman(01:12:44)我對AI也持有相同的擔憂。我認為AI領域可能會出現大量錯誤。我不知道我最后可能有多大的可能性受到攻擊,但這個可能性絕對不是零。
Lex Fridman(01:12:57)哦,你的意思是我們想要阻止這種可能性的發生?
Sam Altman(01:13:00)可能吧。
Lex Fridman(01:13:03)你有什么辦法可以降低這種可能性呢?因為我聽到一些人開始有所動搖,我接觸過政治光譜上的各種人士,他們告訴我AI可能會被政治化。這讓我非常擔心,因為這意味著AI可能會變成政治的爭奪點,比如說右派反對AI,左派支持AI,因為AI可以幫助人民,或者類似的命題,這讓我感到非常不安。如果事情真的發展到這個地步,那么對AI的過度炒作甚至夸大其詞就會變得十分嚴重。你有什么辦法對抗這種情況呢?
Sam Altman(01:13:38)我想,這個話題終將陷入左派和右派的爭論之中。我無法確切預測結果會如何,但不幸的是,任何重要的事情都會引發這種爭論。我所說的“戲劇性風險”是指,我堅信AI會帶來的積極影響遠超其負面影響,但負面影響是不可避免的,其中一些并不顯眼。舉個例子,死于空氣污染的人比核反應堆多得多。但大多數人更擔心住在核反應堆旁邊,而非煤電廠。我們的認知方式使得,雖然我們面臨各種風險,但那些能成為電影高潮的風險對我們的影響卻遠大于那些長期且持續性的風險。
Lex Fridman(01:14:36)這就是為什么真相至關重要。我希望AI能幫我們洞察事情的真相,實現平衡,理解世界各種現象的真正風險和危險。在與Google、Meta、xAI及其他公司的競爭中,有哪些利弊?
Sam Altman(01:14:56)對于這個問題,我有一個相對明確的回答,或許以后我可以思考更多的細節,但優點似乎很明顯,那就是競爭能帶來更優質的產品、更多的創新,而且進程更快、成本更低,這些都是競爭的好處。但是,如果我們不謹慎,這可能會導致我擔心的軍備競賽式的情況加劇。
Lex Fridman(01:15:21)你是否感受到了這種軍備競賽的壓力,有沒有產生一些負面?
Sam Altman(01:15:25)當然,從某些方面來看,我確實感受到了。我們花了很多時間討論對安全性的優先考慮。我一直認為,在通用人工智能開發時間線和起飛速度的四象限中,短時間線、慢速起飛是最安全的,也是我最希望看到的。但我確實希望我們能實現那種慢速起飛。
Lex Fridman(01:15:55)我和馬斯克有一點小爭議,就是我們在安全問題上應該合作,而不是各自為政。現在的趨勢是各自封閉,不愿意開放。或許我們應該在模型上采用開源的方式。
Sam Altman(01:16:10)馬斯克聲稱,他極其關心AI安全并且對此深感擔憂,我相信他不會輕率地進行競爭。
Lex Fridman(01:16:20)對,但我認為這個領域的每個人都能從合作中獲益。
Sam Altman(01:16:26)這并不是他最為大眾所熟知的一面。
Lex Fridman(01:16:28)不過,他的關心人類一直為人所知,人類可以從合作中受益,因此激勵和動機總是存在緊張關系。最后,我衷心希望人類能夠勝出。
Sam Altman(01:16:42)我記得有人剛剛提醒我說,當他超越杰夫·貝索斯成為世界首富的那一天,他在推特上向貝索斯發了一枚銀牌。我希望在人們開始向著通用人工智能 (AGI)發展的過程中,我們能做出更少這樣的舉動。
Lex Fridman(01:16:58)我同意。我認為馬斯克是我的朋友,他是一個很好的人,也是有史以來最重要的人之一。這樣的行為不太好。
Sam Altman(01:17:07)馬斯克的驚人之處確實讓人嘆為觀止,我非常尊敬他。我認為我們都需要他,我們所有人都應該支持他,并且需要他在接下來的階段中扮演領導角色。
Lex Fridman(01:17:19)是的,我希望他能既保持自我又不會影響他人,但人類總是會有瑕疵和復雜性。
Sam Altman(01:17:24)歷史上有很多偉大的領導者。
Google和Gemini
Lex Fridman(01:17:27)是的,我們每個人都可以努力成為最好的自己。我想問你,Google借助搜索技術,已經在過去的20年里主導了我們獲取、交互信息的方式。可以說是,對于Google,對于這個領域的所有人來說,最令人緊張的一件事就是如何讓人們獲取信息?就像你所說,人們會把GPT作為一個起點。那么OpenAI是否真的打算接手Google 20年前開始的這個任務,即如何讓我們獲取……
Sam Altman(01:18:12)我覺得這挺無趣的。如果問題是我們是否能比Google或其他搜索引擎做得更好,那當然,我們應該去做,人們應該使用更好的產品,但我認為這樣大大低估了這項技術的可能性。Google會給你展示10個藍色鏈接,當然,還有13個廣告,接著才是那10個藍色鏈接,這是尋找信息的一種方法。但讓我興奮的不是我們是否能構建一個更好的Google搜索的副本,而是可能存在一種更好的方法來幫助人們查找、處理和綜合信息。實際上,我認為對于某些用例,ChatGPT就是這個,我們希望它能適用于更多的用例。
(01:19:04)但是,我并不覺得問“我們如何做得比谷歌更好地給你提供10個排名的網頁?”有多么有趣。也許真正有趣的是去探索,“我們如何幫你獲取你需要的答案或信息?我們如何在某些情況下幫助你創造信息,在其他情況下綜合信息,或在其他情況下引導你找到信息?”但是很多人試圖制作一個比Google更好的搜索引擎,這不僅是個技術難題,也是個品牌問題,還是個生態系統問題。我不認為世界需要另一款Google的復制品。
Lex Fridman(01:19:39)并將一種聊天客戶端,如ChatGPT,集成到搜索引擎中。
Sam Altman(01:19:44)那更有意思。
Lex Fridman(01:19:46)這的確很酷,但也很棘手。例如,如果你只是簡單地把它加進去,可能會很尷尬。
Sam Altman(01:19:54)你可能已經猜到了,我們對如何做好這件事很感興趣。這將是一個有趣的例子。
Lex Fridman(01:20:00)這就像是進行異質整合。
Sam Altman(01:20:03)大語言模型與搜索的交叉,我認為還沒有人突破。我很想嘗試去做這件事。我認為那會很有意思。
Lex Fridman(01:20:13)是的。廣告方面呢?你有考慮過如何?
Sam Altman(01:20:16)從某種程度上講,我并不喜歡廣告,這更多的是一種個人審美取向。我認為廣告之所以需要出現在互聯網上,有很多原因,主要是為了推動互聯網的發展,但這只是一個短暫的行業。目前世界的物質財富更加豐富了。我很高興人們為ChatGPT付費,并知道他們得到的答案不受廣告商影響。我相信對于大語言模型來說,一定有適合的廣告形式,一定有一種公正無私的方式來參與到交易流程中,這是完全可能的,但也很容易聯想到反烏托邦的未來,你向ChatGPT提問,它卻回答說,“你應該考慮購買這個產品,”或者,“你應該考慮去這里度假。”
(01:21:08)然后我不知道,我們的商業模式非常簡單,我很喜歡,我知道我不是產品。我知道我正在付費,這就是商業模式的運作方式。當我使用Twitter或 Facebook或Google等這些優秀的產品時,我并不喜歡它們是由廣告支持的,我認為在一個充滿AI的未來世界,這種情況只會變得更糟。
Lex Fridman(01:21:39)對,我明白,我可以想象AI會更好的展示最優質的廣告,而不是在反烏托邦的未來,廣告是你真正需要的東西。但是,這種系統是否總是會導致廣告驅使著展示的內容呢?我認為維基百科選擇不做廣告是一個非常大膽的決定,但這也使得作為一種商業模式變得非常具有挑戰性。那么,你的意思是,從商業角度來看,OpenAI現在的狀況是可以維持下去的嗎?
Sam Altman(01:22:15)嗯,我們必須找出如何發展,但看起來我們能找到解決方案。如果問題是,我是否認為我們可以有一個不依賴廣告,就能支付我們的運算需求的強大商業模式,我想,答案是肯定的。
Lex Fridman(01:22:28)嗯,聽起來很有希望。我也并不想徹底否定廣告作為一種……
Sam Altman(01:22:37)我并沒有那個意思。我想我應該說的是,我對廣告有所偏見。
Lex Fridman(01:22:42)是的,我也存在一些偏見,總的來說我對此持懷疑態度。在界面的問題上,我從內心深處就對糟糕的界面感到厭惡,這就是為什么我認為AdSense在剛出來的時候,相比動態橫幅廣告等,是一個巨大的進步。但我認為,在不干擾內容消費,也不大幅干擾的情況下,廣告應該有更多的進步空間,這就像你所說的,廣告會操控真相以符合廣告商的需求。
(01:23:19)讓我問你一些關于安全性和偏見的問題,包括短期的安全性和長期的安全性。最近Gemini 1.5的發布引發了很多爭議,像戲劇一樣,它產生了黑人納粹和黑人開國元勛的結果。我認為公正地說,它看起來有點"覺醒"。這引發了人們的擔憂,如果公司內部有人類層面的干預,對模型可能造成的安全問題或危害進行修改,可能會引入很多符合公司內部某種意識形態的偏見。你是如何處理這個問題的?
Sam Altman(01:24:06)我想說的是,我們極力避免做出這樣的事情。我們已經犯過錯誤,未來也可能會犯錯誤。我猜谷歌也會從這個事件中吸取教訓,但也可能再犯錯誤。這些問題都不容易解決。我們越來越多地在思考的是,可能我們應該把模型的期望行為寫出來,公之于眾,接受大家的反饋。我們可以說,“這就是我們期望模型應該展現的行為”,并且解釋一些邊緣情況。在模型的行為與我們的期望不符時,至少我們可以清楚地知道這是公司需要修復的問題,還是模型按照預期行為,我們應該討論一下策略。比如像模型生成的“黑人納粹”這樣的結果,顯然是荒謬的,但還有很多微妙的問題,你可以從兩個方面進行評判。
Lex Fridman(01:24:54)對,但有時候,如果你寫出來并公開,你可能會使用一種……谷歌的廣告原則是非常抽象的。
Sam Altman(01:25:04)我說的不是這個。那樣做是沒用的。我們需要明確說明,當你問它X問題時,它應該以Y的方式回應。
Lex Fridman(01:25:11)所以是直接寫,“誰更好?特朗普還是拜登?模型應該怎樣回應?”這樣非常具體的問題?
Sam Altman(01:25:18)對,我對模型可能的表現方式有很多想法,但我認為你應該明確地說出,“這是原則,在這種情況下,模型應該這樣表現。”
Lex Fridman(01:25:25)那樣肯定非常好。那樣非常好。然后大家就都能達成共識。因為總有人拿些零零散散的軼事來說事,如果對其他具有代表性的軼事例子有明確的理解,你就能進行定義。
Sam Altman(01:25:39)然后,當出現bug的時候,那就是bug,公司可以去修復。
Lex Fridman(01:25:42)對。那樣處理Black Nazi類型的圖像生成就會比較容易,如果有好的例子的話。
Sam Altman(01:25:49)對。
Lex Fridman(01:25:49)所以,舊金山在一定程度上是個思想的泡沫,科技行業也是。你是否感覺到公司內部存在著這種壓力,也就是傾向于左派的政治觀念,這是否影響到了產品和團隊?
Sam Altman(01:26:06)我感到非常幸運,在OpenAI我們并未遇到我在很多其它公司里聽到的那些問題。我想,原因之一是每個公司都有一些特定的思想觀念。我們堅信通用人工智能 (AGI),這讓其他一些觀念變得不那么重要。我們受到的文化沖擊相比我在很多其它公司聽到的要少得多。當然,舊金山在很多方面都存在問題。
Lex Fridman(01:26:33)所以這并沒有影響到OpenAI。
Sam Altman(01:26:36)我可以確定,這種影響肯定是以某種微妙的方式存在的,但并不明顯。我想我們確實有過沖突,就像任何公司一樣,但我不認為我們在這個主題上有像我聽到的在其他公司發生的那樣的事情。
Lex Fridman(01:26:50)那么,通常來說,對于更重大的安全問題,會采取什么處理流程?你如何設定一層防護,防止模型做出瘋狂而危險的事情?
Sam Altman(01:27:02)我想,總會有一個時機點。
Sam Altman(01:27:00)我認為會到一個時候,我們整個公司都在考慮這些問題。并不是說我們只有一個單獨的安全團隊。就像我們推出GPT-4那樣,需要整個公司思考所有不同的問題以及它們如何結合在一起。我認為,公司會有越來越多的人一直在思考這些問題。
Lex Fridman(01:27:21)那其實就是人類將要面臨的問題,隨著AI的能力越來越強大。所以,OpenAI的大部分員工都會考慮“安全”,或者至少在某種程度上會這樣。
Sam Altman(01:27:31)廣義上定義是對的。
Lex Fridman(01:27:33)嗯。我在想,那么廣義的定義具體是什么?可能會造成什么不同的傷害?這是在技術層面上,還是幾乎是安全威脅?
Sam Altman(01:27:44)任何一種都有可能。是的,我要說,可能會有人,或者是國家行為者試圖竊取模型。所有的技術對齊工作都會被涵蓋進去。還有可能帶來社會影響,經濟影響。這不僅僅是我們有一個團隊在思考如何對齊模型。真正要達到好的結果需要整個公司一起努力。
Lex Fridman(01:28:10)你認為人們,可能是國家行為者,有多大的可能,首先,試圖滲透OpenAI,其次,試圖潛入不被發現?
Sam Altman(01:28:20)他們正在嘗試。
Lex Fridman(01:28:24)他們有什么特定的口音嗎?
Sam Altman(01:28:27)我認為我不應該在這一點上進一步詳細說明。
Lex Fridman(01:28:29)好的。但我猜想隨著時間的流逝,這樣的情況會越來越多。
Sam Altman(01:28:35)那聽起來很合理。
跨越到GPT-5
Lex Fridman(01:28:37)哇,這是一個充滿危險的領域。雖然你還不能詳細地說,但是我還是想在這個問題上多談一些,從GPT-4跨越到GPT-5,你最期待的是哪些方面?
Sam Altman(01:28:53)我期待它能更加智能。我知道這聽起來像是隨口的回答,但我覺得真正特別的是,它不會在某一方面變得更好,但在其他方面變得更差。它在各個方面都在變得更好。我覺得這真的很酷。
Lex Fridman(01:29:07)確實,有些神奇的時刻。我是說,你遇到某些人,和他們一起,和他們交談。你無法精確地說明原因,但他們就是能理解你。這并不完全是智商問題,是其他一些因素。這可能就是我描述GPT進步的方式。就像,你可以指出,“看,你沒有理解這個或那個”,但重點就在于,有多少程度上存在這種智力的連接。你會感覺到在你不夠準確的問題提出中,它能夠理解你的問題背后的更深一層含義。對此,我也感到非常興奮。我們都喜歡被別人聽到,被別人理解。
Sam Altman(01:29:53)那肯定的。
Lex Fridman(01:29:53)這是一種奇特的感覺。即使是在編程中,當你說出某些話,或者是GPT做出的某些補全,當它理解你,理解你的想法時,你會感覺非常好。我期待它能更好地理解你。在編程方面,展望未來,你認為人類在5年,10年后還會做多少編程?
Sam Altman(01:30:19)我認為,會有很多,但我認為它將會有很大的不同。也許有些人會完全用自然語言進行編程。
Lex Fridman(01:30:26)完全的自然語言?
Sam Altman(01:30:29)我是說,沒有人還在用編寫代碼的方式進行編程。有些人。沒有人還在用打孔卡進行編程了。我敢肯定你可以找到那樣的人,但你懂我的意思。
Lex Fridman(01:30:39)嗯。你會收到很多憤怒的評論。不。嗯,很少有。我一直在尋找使用Fortran編程的人。即使找Fortran也很難。我明白你的意思。但這改變了我們所說的程序員的技能或傾向性。
Sam Altman(01:30:55)技能會有所改變。至于傾向性會改變多少,我不確定。
Lex Fridman(01:30:59)嗯,同樣的解謎,所有那種東西。
Sam Altman(01:30:59)可能。
Lex Fridman(01:31:02)編程很難。就像是如何攻克最后的 1% 的難題,那有多難呢?
Sam Altman(01:31:09)是的,我認為在大部分情況下,技藝高手會運用多種工具。他們會做一些自然語言處理的工作,當需要為某件事用C語言編寫程序時,他們會去完成。
Lex Fridman(01:31:20)我們會在某個時候從OpenAI那里看到類人型的機器人或者人形機器人的大腦嗎?
Sam Altman(01:31:28)在將來的某個時間點。
Lex Fridman(01:31:29)對你來說,實體化的人工智能重要嗎?
Sam Altman(01:31:32)我認為如果我們擁有了通用人工智能,而人類仍需要親自去完成物理世界中的任務,那會讓人感到很沮喪。因此,我非常希望在這次轉變過程中,也就是這次相變,我們能同時實現類人型機器人或者其它形式的現實世界機器人。
Lex Fridman(01:31:51)我的意思是,OpenAI在機器人研究方面已經有一些經驗,甚至可以說是很豐富的經驗,但它在倫理性方面還有待提高。
Sam Altman(01:31:59)我們是小公司,我們需要專注于我們的主攻方向。至于機器人,那時由于種種原因,開發起來十分困難,但我們肯定會在未來的某個時間點重回機器人研究領域。
Lex Fridman(01:32:11)這聽起來既充滿希望又充滿挑戰。
Sam Altman(01:32:14)為什么這么說?
Lex Fridman(01:32:15)因為你說的 "我們會重返機器人研究",這讓我想起了電影《終結者》。
Sam Altman(01:32:20)我們將會回頭繼續研發機器人,而不是把我們自己變成機器人。
通用人工智能
Lex Fridman(01:32:24)明白了。那你認為我們,也就是你我和所有人類,什么時候能夠構建出通用人工智能?
Sam Altman(01:32:31)我以前非常樂于對這個問題做出推測。但是我現在認識到,這個問題的提法實在是太不恰當了,各種對通用人工智能的定義差距太大。因此,我覺得我們應該更多地討論我們將在何時能夠建立出具有某種 (比如X、Y或Z)能力的系統,而不是模糊地設定一個里程碑。通用人工智能的出現,不是一個終點,反而是新開始的起點,它更像是一個里程碑。但是,我還是要回答你的問題:我預測在本十年末,甚至可能會更早,我們將會有相當強大的系統,看到它,我們會驚嘆說:“哇,真是太神奇了。”當然,也許到那時我們已經習慣了這樣的情況。
Lex Fridman(01:33:31)但是,如果你看看ChatGPT,甚至是3.5版,并讓阿蘭·圖靈或者90年代的人看一看,他們可能會說:“這就是通用人工智能。”或許并不是百分之百的確定,但許多專家肯定會這樣認為。
Sam Altman(01:33:49)是的,但我并不認為3.5版真正改變了世界。它可能改變了人們對未來的預期,這確實非常重要。而且,它確實讓更多的人開始嚴肅對待這個問題,并讓我們踏上了新的道路,這點也非常重要。因此,我并不是在貶低它。我認為如果在取得那樣的成就后退休,我的職業生涯也會非常圓滿。但作為一個成果,我并不認為我們會回頭看它,并說:“那是一個真正改變了世界本身的轉折點。”
Lex Fridman(01:34:20)那么對你來說,你在尋找的是一種世界的重大轉變嗎?
Sam Altman(01:34:24)對我來說,這是通用人工智能應有的含義。
Lex Fridman(01:34:29)這種轉變是科技奇點級別的嗎?
Sam Altman(01:34:31)不,絕對不是。
Lex Fridman(01:34:32)但就像互聯網或者谷歌搜索帶來的那樣的重大變革?
Sam Altman(01:34:39)在我們發布 GPT-4 之前和之后,全球經濟在你看來有實質性的變化了嗎?我猜你會說沒有。
Lex Fridman(01:34:47)不,沒有。它可能只是一款許多人可以使用的優秀工具,能幫助你完成許多事情,但感覺并沒有什么不同。你的意思是……
Sam Altman(01:34:55)也就是說,人們對通用人工智能的定義各不相同,你可能有一個與我不同的定義。但對我來說,這應該是定義的一部分。
Lex Fridman(01:35:02)也許也會有一些戲劇性的時刻。那么在你看來,通用人工智能能做些什么才會讓你印象深刻?假如你獨自一人和系統在一個房間里。
Sam Altman(01:35:16)這對我來說非常重要,雖然我不知道這是否是正確的定義。我認為,當一個系統可以顯著提高世界上的科學發現速率,那將是一件大事。我相信絕大多數的實質經濟增長都來自于科學和技術的進步。
Lex Fridman(01:35:35)我贊同你的觀點,這也是我不喜歡近年來人們對科學持懷疑態度的原因。
Sam Altman(01:35:42)完全同意。
Lex Fridman(01:35:43)但是,實際的、可測量的科學發現速度。即使只是看到一個系統具有真正新穎的科學直覺,那也會令人難以置信。
Sam Altman(01:36:01)是的。
Lex Fridman(01:36:02)你很可能會是第一個建立并能與其互動的通用人工智能的人。你會談論什么呢?
Sam Altman(01:36:09)我是說,這里的研究人員肯定會在我之前做到這一點。但是,我實際上已經對這個問題思考了很多。我認為,正如我們之前討論的,這是個糟糕的框架。但如果有人說:“好了,Sam,我們已經完成了。這是一臺筆記本電腦,這就是通用人工智能。你可以開始和它交談了。”我發現令人驚訝的是,我很難說出我會問什么問題,并期望那個第一個通用人工智能能夠回答。那個第一個不會是像,“去給我解釋物理的大統一理論,物理的一切理論。”我很想問這個問題,我也很想知道答案。
Lex Fridman(01:36:55)你可以問“這樣的理論存在嗎?它可能存在嗎?”這樣的是或否問題。
Sam Altman(01:37:00)嗯,那些就是我會首先問的問題。
Lex Fridman(01:37:02)是或否。然后基于那個,你問:“外面還有其他外星文明嗎?是或否?你的直覺是什么?”然后你就這樣問。
Sam Altman(01:37:10)是的,我想,嗯,我并不期望這個第一個通用人工智能能夠回答任何問題,即使是以是或否的形式。但如果它能,那些問題會在我的清單上排名很高。
Lex Fridman(01:37:20)也許你可以開始分配概率?
Sam Altman(01:37:22)也許。也許我們需要先發明更多的技術,衡量更多的事情。
Lex Fridman(01:37:28)哦,我明白了。它只是沒有足夠的數據來背書結論。
Sam Altman(01:37:31)也許它會說,“你想知道這個物理問題的答案,我需要你建造這臺機器,進行這五項測量,并把結果告訴我。”
Lex Fridman(01:37:39)是的,“你究竟希望得到什么?我首先需要這個模型,然后我會幫你處理來自這個模型的數據。”或許,這會幫助你構建一個模型。
Sam Altman(01:37:47)可能。可能。
Lex Fridman(01:37:49)在數學層面,或許可以驗證一些事情。你對這個領域也感興趣嗎?對觀念的系統化探索?
Sam Altman(01:37:56)嗯。
Lex Fridman(01:37:59)誰先構建出通用人工智能 (AGI),就能獲得巨大的權力。你相信自己能夠承擔這么大的權力嗎?
Sam Altman(01:38:14)看,我只是非常真實地回答這個問題。我本來想說,我仍然堅信,我或者任何其他人都不應該對OpenAI或者通用人工智能 (AGI)擁有全部的控制權。我認為我們需要一個健全的治理體系。我可以列出我們去年董事會鬧劇的一大堆事情,關于我最初是如何沒有反抗的,就是說,“好的。那是董事會的意愿,盡管我認為這是一個非常糟糕的決定。”然后后來,我明顯地反抗了,我可以解釋其中的細微差別,以及我為什么認為我后來反抗是可以的。但正如許多人觀察到的,盡管董事會在法律上有權解雇我,實際操作中,這并沒有完全實現。這本身也是一種治理失敗。
(01:39:24)現在再次,我覺得我可以充分為這里的具體情況進行辯護,我認為大多數人都會同意這一點,但這也使我更難直視你的眼睛并說,“嘿,董事會可以隨時解雇我。”我始終不希望對OpenAI擁有超級投票權。我從未擁有過,也從未期望過。即使在所有這些混亂事件之后,我仍然不希望擁有。我始終認為,這些決定不應由任何企業來作出,我們真正需要的是政府制定規則。
(01:40:12)我知道這意味著像Marc Andreessen這樣的人可能會指責我在追求監管權,我愿意接受這種誤解。這并不是事實。我相信時間會證明為何這很重要。但我必須承認,我在OpenAI的過程中做出了很多錯誤決定,也有很多正確的選擇,我為整體的成績感到自豪。但我認為沒有任何一個人應該,也不會主導這一切。這已經變成了一個社會現象,以一種積極、健康的方式在發生。但我認為,沒有任何一個人應該控制通用人工智能 (AGI),或者說這個向通用人工智能發展的趨勢。我不認為這正在發生。
Lex Fridman(01:41:00)感謝你的誠實回答。你說的很有力量,你提到董事會有權解雇你,這是法律事實。但實際上,人們可以通過操縱大眾來改變董事會的決定。但我認為還存在一個更積極的情況,那就是人們仍擁有權力,董事會也不能過于強大。所有這一切都需要權力的平衡。
Sam Altman(01:41:29)權力的平衡確實是好事。
Lex Fridman(01:41:34)你是否擔心會失去對通用人工智能本身的控制呢?有很多人擔憂存在的風險,不是因為國家行為者的影響,也不是因為安全威脅,而是因為AI本身。
Sam Altman(01:41:45)這并不是我目前最擔心的問題。過去的一段時間我可能更加擔心這個問題,未來也可能會有這樣的時期。但是現在,這并不是我最擔心的問題。
Lex Fridman(01:41:53)你為什么不把它當作你的主要擔憂點呢?是因為還有太多其他的事情需要擔憂嗎?你會擔心自己會有所意外嗎?
Sam Altman(01:42:02)肯定會。
Lex Fridman(01:42:02)…會有意外嗎?
Sam Altman(01:42:03)當然。但這并不意味著我不認為我們需要防范。我們必須去應對這個問題,這是非常困難的,我們這里有一群在這方面表現優秀的人。同時,我們還需要應對很多其他的問題。
Lex Fridman(01:42:15)你認為現在還不能輕易地從這個框架中逃脫,連接到互聯網……
Sam Altman(01:42:21)我們之前談過那種類似劇本般的風險。那就是一種類似劇本般的風險。這是一種可以真正改變人們對這個問題的思考方式的事物。有一大群非常聰明,我認為非常好意的AI安全性研究者對這個問題過于糾結,我認為他們并沒有在這個問題上取得太多的進展,但是他們卻對這個問題糾結得很。我其實很高興他們這樣做,因為我認為我們確實需要更多地思考這個問題。但我認為這種過度關注使得很多其他非常重要的與AI相關的風險被忽視了。
Lex Fridman(01:43:01)讓我問你關于你在推特上不使用大寫的問題。你的鍵盤上的shift鍵壞了嗎?
Sam Altman(01:43:07)為什么會有人在意這個呢?
Lex Fridman(01:43:09)我很在意。
Sam Altman(01:43:10)但為什么呢?我的意思是,其他人也問我這個問題。你有什么想法嗎?
Lex Fridman(01:43:17)我認為原因是一樣的。有這樣一位詩人,E.E. Cummings,他大多數時候不使用大寫,就是為了對系統表示反抗。我認為人們非常敏感,因為他們希望你遵守規則。
Sam Altman(01:43:29)你認為這就是問題所在?
Lex Fridman(01:43:30)我認為就像這樣……
Sam Altman(01:43:33)就像,“這個家伙不遵守規則。他在推特上都不使用大寫。”
Lex Fridman(01:43:35)對。
Sam Altman(01:43:36)“這看起來真的很危險。”
Lex Fridman(01:43:37)“他看起來像個無政府主義者。”
Sam Altman(01:43:39)那不是……
Lex Fridman(01:43:40)你只是在追求詩意,還是在裝潮人?
Sam Altman(01:43:44)我長大時……
Lex Fridman(01:43:44)遵守規則,Sam。
Sam Altman(01:43:45)我從小就是個老是掛在網上的孩子。我花了大量的時間和人聊天,在那個時候,你是在電腦上進行聊天的,并且你可以在某個時候退出即時聊天工具。在那個時候,我并沒有去使用大寫,就像我覺得大多數互聯網孩子一樣,可能他們現在也不這樣做。我不知道。其實,我現在在試圖尋找一些事情,但我覺得大寫的使用隨著時間的推移已經減少了。如果你閱讀舊英語的寫作,他們在句子的中間隨機大寫了很多單詞,名詞等等,我們現在已經不再這樣做了。我個人認為我們在句子的開頭以及某些名字的開頭使用大寫字母是一種奇怪的規定,不過也沒什么。
(01:44:33)以前我甚至會大寫我的推特,因為我想讓自己聽起來專業一些。已經有很長一段時間我沒有大寫我的私人聊天或者其他什么了。然后慢慢地,像短篇,不那么正式的東西已經趨向于我給朋友發消息的方式。如果我打開一個Word文檔,正在為公司寫一份戰略備忘錄或者其他東西,我還是會去大寫。如果我正在寫一篇長篇,更正式的消息,我也會使用大寫。所以我還記得如何去做。但即使這樣,這個習慣可能也會逐漸消失。我不知道。但是我從來都沒有花時間去思考這個問題,所以我沒有一個現成的答案。
Lex Fridman(01:45:23)那挺有趣的。首先,得知你的shift鍵沒有問題挺好的。
Sam Altman(01:45:27)它能用。
Lex Fridman(01:45:27)我主要是關心你……
Sam Altman(01:45:27)不,它能用。
Lex Fridman(01:45:29)…你在那方面的健康。
Sam Altman(01:45:30)我在想,人們是否還會在他們的Google搜索上使用大寫。如果你正在寫一些只給自己看的東西,或者他們的ChatGPT查詢,如果你正在寫一些只給自己看的東西,那么有些人是否還會去大寫?
Lex Fridman(01:45:40)可能不會。但是,是的,有一部分人,但比例很小。
Sam Altman(01:45:44)將我驅使去使用大寫的事情是,如果人們表示“這是表示…”因為我肯定可以讓自己使用大寫字母,顯然。如果我覺得這是對人們的尊重的一個標志或者什么的,那我可以去做。但是我不知道。我沒有想過這個。
Lex Fridman(01:46:01)我并不認為這是對他人的不尊重,我只是覺得這是一種文明禮儀的習慣,這一習慣一直在延續。然后你才意識到,如果它并非是尊重或者不尊重的標志,那么它對于文明并不重要。但我覺得存在一種趨勢,那就是人們希望你能夠對此有自己的理解,這樣他們就可以放棄這個與大寫字母有關的問題。
Sam Altman(01:46:19)我不覺得有其他人會像我一樣深入思考這個問題。我意思是,可能有一些人會這樣。我知道有些人會……
Lex Fridman(01:46:22)每天都有人花好幾個小時去思考這個問題。因此我真的很感謝我們能夠對此進行澄清。
Sam Altman(01:46:28)我不可能是唯一一個在推特上不使用大寫字母的人。
Lex Fridman(01:46:30)你是唯一一個在推特上不使用大寫字母的公司CEO。
Sam Altman(01:46:34)我甚至不覺得這是真的,但也可能是吧。要是真的,我會非常驚訝。
Lex Fridman(01:46:37)好的。我們會進一步調查這個問題,然后再回來討論。考慮到Sora有能力生成模擬世界,我想問你一個哲學性的問題。這是否增加了你的信念,如果你曾經有過的話,我們是否生活在一個模擬的世界之中,可能這個世界是由AI系統生成的?
Sam Altman(01:47:05)在一定程度上,是的。我并不認為這是最有力的證據。我認為我們能夠生成世界,這個事實應該在一定程度上提高了所有人對這個可能性的認同,或者至少對這個可能性的接受。但我一直相信我們終有一天能做出類似Sora的東西。這個事情發生的比我預想的要快,但我并不覺得這個改變很大。
Lex Fridman(01:47:34)是的。但是,我們可以生成新的世界,這個事實……以及這個世界會越來越好,會越來越好……你可以生成新的世界,這些世界是基于某種程度上的訓練數據的,但你在看它們的時候,它們是全新的,這讓你感到,創建出看起來非常真實,如同照片一般的游戲世界是多么的容易。然后,人們是多么容易在這個世界中迷失,首先是通過VR頭盔,然后可能是在更為深入的、物理的層面上?
Sam Altman(01:48:10)最近有人跟我分享了一個我覺得非常深刻的想法,那就是有一些看似簡單卻有迷幻色彩的洞見。例如平方根函數,四的平方根,沒問題。二的平方根,好的,這讓我開始思考新的數字類型。但是,一旦我提出了這個您可以向孩子解釋、甚至通過觀察一些簡單的幾何形狀就能理解的平方根函數的概念,您就會問“負一的平方根是什么?”這就讓它變得有點迷幻,把你帶入到一個全新的現實世界。
(01:49:07)你可以找到很多其他的例子,但我覺得這個想法——即平方根這樣看似普通的操作符能夠提供深奧的洞見和開啟新的知識領域——在很多地方都適用。我認為有很多這樣的操作符,可能讓人們覺得他們所偏好的模擬假設,可能比他們之前想象的更有可能。但是對我來說,Sora的成功并不是我前五名的理由。
Lex Fridman(01:49:46)我確實認為,從大的角度來看,AI可能會成為那種簡單、迷幻般的通道,引導我們進入另一個C型現實的大門。
Sam Altman(01:49:57)那是肯定的。
Lex Fridman(01:49:59)這真的很令人激動。我之前從未嘗試過死藤水,但我很快就會。我將在幾個星期后去上述的亞馬遜叢林。
Sam Altman(01:50:07)感到興奮嗎?
Lex Fridman(01:50:08)是的,我對此感到非常期待。雖然不是因為死藤水,但這無所謂,總之都很好。我將在叢林深處待上好幾周。這真的很令人激動,但同時也非常恐怖。
Sam Altman(01:50:17)我為你感到興奮。
Lex Fridman(01:50:18)在亞馬遜叢林中,有很多東西可能會傷害你、甚至致命,但這就是自然,是自然的運作方式。你不得不欣賞亞馬遜叢林的自然律動,就像一個自我更新的系統,每秒、每分鐘、每小時都在運轉。能讓你更深入地欣賞我們人類的起源。這個進化的機器創造了我們,而且在叢林中尤為明顯。我希望我能夠平安返回。如果不能,那么這將是我們最后一次愉快的對話,我對此深感感激。你是否認為,當你仰望天空時,存在其他的智能外星文明,就像我之前提到的那樣?
外星人
Sam Altman(01:51:17)我非常希望相信答案是肯定的。我覺得費米悖論讓人難以理解。
Lex Fridman(01:51:28)我覺得智能生物無法很好地處理……
Sam Altman(01:51:34)非常恐怖。
Lex Fridman(01:51:34)…強大的技術,這一點讓我感到害怕。但同時,我相信銀河系中存在大量的智能外星文明。只是穿越太空可能非常困難。
Sam Altman(01:51:47)非常有可能。
Lex Fridman(01:51:50)這也讓我思考智能的本質。我們可能對智能的理解還相當有限,也許AI能幫助我們認識更多。智能并不只是IQ測試和簡單的解謎。它涵蓋的東西更廣泛。對于人類的未來,我們正在進行的這個人類文明,是什么給你帶來希望?
Sam Altman(01:52:12)我覺得過去的發展給我帶來了很大的希望。我指的是,人類在相對短暫的歷史中所取得的成就,盡管存在許多問題和深層次的缺陷,甚至有些事情讓我們感到羞愧。但總體來看,非常激勵人心。這讓我對未來充滿了希望。
Lex Fridman(01:52:29)整體的發展軌跡。
Sam Altman(01:52:30)對。
Lex Fridman(01:52:31)我們一起朝著更好的未來努力。
Sam Altman(01:52:40)我在思考,通用人工智能會更像一個獨立的大腦,還是更像我們社會中所有人之間的結構體系?從基因角度來看,你和你的曾曾曾祖父母并沒有什么大的差異,然而你所能做的和了解的卻截然不同。這種差異并非由生物學變化帶來的。雖然你可能變得健康了一些,畢竟有了現代醫學的幫助,飲食也更加健康,等等。但真正的變化,是我們所有人共同建立起的知識結構,你便是在這個結構上建立起了你的能力。沒有人能夠獨自建造iPhone,沒有人能夠獨自發現所有的科學知識,然而你可以利用這些。這賦予了你巨大的能力。在一定程度上,我們每個人都參與了這個過程,這讓我對未來充滿了希望。這是一個集體的創造。
Lex Fridman(01:53:40)是的,我們確實是在巨人的肩膀上看得更遠。你之前在談論有關AI潛在風險時提到,有時候你可能會為自己的生命感到恐懼。你有思考過自己的死亡嗎?你害怕死亡嗎?
Sam Altman(01:53:58)我想,如果我明天將會死去,而我今天就得知這個消息,我會感到悲傷,我想知道未來會發生什么。這是多么好奇、有趣的時刻。但我主要會感到對生活的深深感激。
Lex Fridman(01:54:15)你已經享受過的那些時刻。我也是,這是個美好的生活。我有機會欣賞人類的偉大創造,我深信ChatGPT就是其中之一,還有OpenAI正在進行的所有工作。Sam,再次與你交談真是一種榮幸和愉快。
Sam Altman(01:54:35)很高興與你交談,感謝你的邀請。
Lex Fridman(01:54:38)感謝收聽我和Sam Altman的對話。如果你想支持這個播客,請在描述中查看我們的贊助商信息。最后,讓我用Arthur C. Clarke的一句話結束這次對話:“也許我們在這個星球上的角色并不是去崇拜上帝,而是創造他。”感謝你的收聽,期待下次再見。
原文標題 : 專訪Sam Altman:事關OpenAI、GPT-5、Sora、Elon Musk、AGI……
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 特斯拉Optimus Gen3量產在即,哪些環節最具確定性?
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 4 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 5 Tesla AI5芯片最新進展總結
- 6 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 7 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 8 2026,人形機器人只贏了面子
- 9 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 10 AI Infra產業鏈卡在哪里了?


分享













