2019 年,MIT Technology Review 的資深記者 Karen Hao 向她的編輯提出了一篇關於 OpenAI 的報導提案,當時這家公司在很大程度上還在默默無聞地運營。接下來發生的事情是一段充滿了意想不到的轉折的旅程,揭示了 OpenAI 的雄心壯志在多大程度上已經偏離了其最初的目標。
我於 2019 年 8 月 7 日首次踏入 OpenAI 的辦公室。當時該公司的技術長 Greg Brockman 對我露出猶豫的微笑,承認給予如此廣泛的權限對他們來說是前所未有的。
雖然 OpenAI 對於一般大眾來說可能相對不為人知,但我作為一名報導人工智慧不斷發展的態勢的記者,一直密切關注其發展。
OpenAI 的早期與轉變
在 2019 年之前,OpenAI 被認為是人工智慧研究社群中的一個異類。其在十年內實現人工通用智慧 (AGI) 的大胆聲稱受到了許多人的質疑。儘管獲得了大量資金,但該公司缺乏明確的方向,其行銷努力也經常被認為是過度炒作其他專家認為不具原創性的研究。儘管如此,OpenAI 也引起了嫉妒。作為一家非營利組織,它聲明對商業化沒有興趣,為不受財務壓力約束的智力探索創造了一個獨特的環境。
然而,在我拜訪之前的六個月裡,一系列快速的變化暗示了 OpenAI 方向的重大轉變。第一個跡象是備受爭議的決定,即儘管公開了 GPT-2 的能力,但仍將其扣留。 接下來是宣布 Sam Altman 在離開 Y Combinator (YC) 後被任命為執行長,同時創建了「有上限利潤」結構。在這些發展中,OpenAI 透露了與微軟的合作夥伴關係,授予這家科技巨頭優先商業化 OpenAI 的技術的權利,並獨家使用 Microsoft Azure 雲服務。
每一項聲明都引發了爭議、猜測和越來越多的關注,超出了科技產業的範圍。隨著這些變化的展開,很難完全掌握它們的意義。然而,很明顯的是,OpenAI 開始對人工智慧研究以及政策制定者理解這項技術的方式產生相當大的影響。轉變為部分營利性業務的決定肯定會對產業和政府產生廣泛的影響。
一天晚上,在我的編輯的鼓勵下,我聯繫了 OpenAI 的政策主管 Jack Clark,我之前曾與他交談過。我提出了一篇關於 OpenAI 的人物特寫,感覺到這是該公司歷史上的一個關鍵時刻。Clark 將我與溝通主管聯繫起來,他發出了採訪領導層並在公司內部待三天的邀請。
OpenAI 內部:使命與雄心
Brockman 和我與首席科學家 Ilya Sutskever 一起在一個玻璃會議室裡會面。他們並排坐著,互相補充著彼此的角色。Brockman 是一位程式設計師和實施者,他似乎渴望給人留下積極的印象,而 Sutskever 是一位研究員和哲學家,他似乎更放鬆和超然。
我首先詢問了 OpenAI 的使命:確保有益的 AGI。為什麼要在這個問題上投資數十億美元而不是其他問題?
Brockman 精通於捍衛 OpenAI 的立場,他表示 AGI 對於解決超出人類能力的複雜問題至關重要。他引用了氣候變遷和醫學作為例子,說明了 AGI 分析大量數據並加速這些關鍵領域進展的潛力。
他講述了一個朋友患有一種罕見疾病的經歷,強調了 AGI 如何通過有效地聯繫專家來簡化診斷和治療。
然後我詢問了 AGI 和 AI 之間的區別。
AGI 曾經是一個小眾概念,但由於 OpenAI 的影響,AGI 獲得了關注。 AGI 指的是一種假設的人工智慧,它在大多數具有經濟價值的任務中與人類智慧相匹配或超過人類智慧。雖然研究人員已經取得了進展,但關於模擬人類意識的可能性仍然存在爭論。
另一方面,AI 指的是當前技術和近期能力,展示了其在減緩氣候變遷和醫療保健方面的應用。
Sutskever 補充說,AGI 可以通過使智慧電腦比人類更有效地進行溝通和協作來解決全球挑戰,從而繞過激勵問題。
這句話讓我質疑 AGI 是否旨在取代人類。Brockman 回應說,技術應該為人民服務,並確保「經濟自由」,同時維持他們的生活品質。
Brockman 認為,OpenAI 的作用不是確定是否會建立 AGI,而是影響創建 AGI 的環境。他強調,他們的使命是通過建立 AGI 並分配其經濟利益來確保 AGI 造福全人類。
我們的談話一直在繞圈子,在獲取具體細節方面收效甚微。我嘗試了一種不同的方法,詢問了這項技術的潛在缺點。
Brockman 提到 Deepfake 是一種可能的負面應用。
我提出了 AI 本身對環境的影響。
Sutskever 承認了這個問題,但認為 AGI 可以抵消環境成本。他強調需要綠色資料中心。
「資料中心是最大的能源和電力消耗者,」Sutskever 繼續說道。
「它佔全球的 2%,」我說。
「比特幣不是佔了 1% 嗎?」Brockman 說。
Sutskever 後來說,「我認為,地球的整個表面很快就會被資料中心和發電站覆蓋,這是相當有可能的。」將會出現「計算海嘯……幾乎就像一種自然現象」。
我質疑他們,OpenAI 正在賭博它會成功實現有益的 AGI,以抵消全球暖化,然後這樣做的事實可能會加劇全球暖化。
Brockman 匆忙說道,「我們對此的看法如下:我們正處於人工智慧進步的道路上。這比 OpenAI 更重要,對吧?這是整個領域。而且我認為社會實際上正在從中受益。」
「我們宣布這筆交易的那天,」他說,指的是微軟新的 10 億美元投資,「微軟的市值就增加了 100 億美元。人們相信,即使只是在短期技術上,也會有正面的投資報酬率。」
因此,OpenAI 的策略非常簡單,他解釋說:跟上這種進展。
那天晚些時候,Brockman 重申,沒有人真正知道 AGI 會是什麼樣子,並補充說,他們的任務是繼續前進,一步一步地挖掘這項技術的形狀。
幕後花絮:透明度與控制
我原本預定與員工在自助餐廳共進午餐,但有人告訴我,我需要待在辦公室外面。Brockman 將成為我的監護人。
這種模式在我的整個訪問過程中不斷重複:限制進入某些區域、我無法參加的會議,以及研究人員瞟向溝通主管,以確保他們沒有違反任何披露政策。在我訪問之後,Jack Clark 在 Slack 上向員工發出嚴厲警告,不要在未經授權的談話之外與我交談。警衛也收到了我的照片,以便他們在我未經批准出現在園區時可以留意我。這些行為與 OpenAI 對透明度的承諾形成對比,引發了人們對隱瞞內容的質疑。
在午餐時以及隨後的幾天裡,我詢問了 Brockman 共同創辦 OpenAI 的動機。他表示,在閱讀了 Alan Turing 的一篇論文後,他迷上了複製人類智慧的想法。這啟發了他。他編寫了一個 Turing 測試遊戲並將其發布到網上,獲得了約 1,500 次點擊。這讓他感覺很棒。「我只是意識到這就是我想要追求的事情,」他說。
他於 2015 年以共同創辦人的身份加入了 OpenAI,並表示他願意做任何事情來實現 AGI,即使這意味著當一名清潔工。四年後,當他結婚時,他在 OpenAI 辦公室舉行了一場公民儀式,儀式在一個定制的鮮花牆前舉行,鮮花牆上裝飾著實驗室六邊形標誌的形狀。Sutskever 主持了儀式。
「從根本上講,我想在我的餘生中從事 AGI 的研究,」Brockman 告訴我。
我詢問是什麼激勵了他的。
Brockman 提到在他有生之年從事一項變革性技術的機會。他認為他處於一個獨特的地位,可以帶來這種轉變。「我真正被吸引的是那些如果我不參與,就不會以同樣方式發展的問題,」他說。
他想領導 AGI,並渴望因其成就而獲得認可。2022 年,他成為 OpenAI 的總裁。
利潤、使命與競爭
在我們的談話中,Brockman 斷言 OpenAI 的結構性變化並沒有改變其核心使命。有上限的利潤結構和新的投資者增強了它。「我們設法找到了這些使命一致的投資者,他們願意優先考慮使命而不是回報。這是一件瘋狂的事情,」他說。
OpenAI 現在有資源來擴展其模型並保持在競爭的最前沿。如果未能做到這一點,可能會破壞其使命。正是這種假設促使 OpenAI 採取了所有行動及其深遠的後果。它在 OpenAI 的每一項研究進展上都設定了一個倒計時,而這個倒計時並非基於仔細考慮的時間尺度,而是基於在其他人之前越過終點線所需的無情步伐。它證明了 OpenAI 對難以想像的資源的消耗是合理的。
Brockman 強調了重新分配 AGI 利益的重要性。
我詢問了歷史上成功地將利益分配給公眾的技術的例子。
「嗯,我實際上認為——實際上,即使以互聯網為例來看,也很有趣,」他說。「也有問題,對吧?」他作為一個警告說。「任何時候你擁有超級變革性的事物,都很難弄清楚如何最大限度地發揮正面作用,最大限度地減少負面作用。
「火也是一個例子,」他補充說。「它也有一些真正的缺點。因此,我們必須弄清楚如何控制它並制定共同的標準。
「汽車是一個很好的例子,」他接著說。「很多人都有汽車,很多人都從汽車中受益。它們也有一些缺點。它們有一些對世界不一定有益的外部性,」他猶豫地總結道。
「我想我只是認為——我們想要 AGI 的東西與互聯網的正面影響、汽車的正面影響、火的正面影響沒有什麼不同。不過,實施方式非常不同,因為它是一種非常不同的技術。」
他的眼睛因一個新的想法而亮了起來。「看看公用事業就知道了。電力公司是非常集中的實體,它們提供低成本、高品質的東西,可以有意義地改善人們的生活。」
Brockman 似乎再次不清楚 OpenAI 將如何將自己轉變為公用事業。
他回到了他唯一確定的事情。OpenAI 致力於重新分配 AGI 的利益並給予每個人經濟自由。「我們實際上是認真的,」他說。
「我們對此的看法是:迄今為止,技術一直是一種可以讓所有船隻都上升的東西,但它具有真正的集中效應,」他說。「AGI 可能會更加極端。如果所有價值都鎖定在一個地方怎麼辦?這就是我們作為一個社會所處的軌跡。而且我們從未見過如此極端。我不認為那是一個美好的世界。那不是我想幫助建設的世界。」
後果與反應
2020 年 2 月,我在 MIT Technology Review 上發表了我的報導,揭示了 OpenAI 的公開形象與其內部實踐之間的不一致。我說,「隨著時間的推移,它讓激烈的競爭和越來越多的資金壓力侵蝕了其創立的透明、開放和協作的理想。」
Elon Musk 回應了三條推文:
「我其實認為 OpenAI 應該更開放」
「我對 OpenAI 沒有任何控制權,只有非常有限的了解。對 Dario 在安全方面的信心不高,」他說,他指的是研究主管 Dario Amodei。
「所有開發先進人工智慧的組織都應該受到監管,包括特斯拉」
Altman 向 OpenAI 的員工發送了一封電子郵件。
「雖然絕對不是災難性的,但顯然很糟糕,」他寫道,指的是 MIT Technology Review 的文章。
他寫道,這是一個「公平的批評」,這篇文章指出了 OpenAI 的認知與現實之間的脫節。他建議 Amodei 和 Musk 會面以解決 Musk 的批評。為了避免任何疑問,Amodei 的工作和人工智慧安全對這項使命至關重要,他寫道。「我認為我們應該在未來的某个時候找到一種公開捍衛我們團隊的方式(但不要讓媒體得到他們現在喜歡的公開爭鬥)。」
文章發表後,OpenAI 在三年內沒有再與我交談。