在 ChatGPT 推出後,OpenAI 內部逐漸浮現的成長痛:一個「人工智慧帝國」
ChatGPT 的推出對 OpenAI 來說是一個關鍵時刻,它幾乎在一夜之間將其從一家備受推崇的科技新創公司轉變為家喻戶曉的名字。然而,這種迅猛的崛起也帶來了重大的挑戰,暴露了一家公司在努力應對爆炸性增長和維持其最初使命時所面臨的成長痛。
ChatGPT 的誕生:一場與時間的競賽
2022 年底,OpenAI 內部流傳著關於競爭對手 Anthropic 即將推出一款新聊天機器人的傳聞。即將到來的發布威脅到 OpenAI 在該領域的領導地位。面對落後的可能性,OpenAI 的高層做出了一個大膽的決定:他們將加速發布自己的聊天機器人。他們沒有等待更先進的 GPT-4 模型,而是選擇在感恩節後僅僅兩週就推出 John Schulman 支援聊天的 GPT-3.5 模型,並結合 Superassistant 團隊創新的聊天介面。
OpenAI 的任何人都沒有意識到他們即將在世界掀起的巨大變革。最初的預期很保守;聊天機器人預計只是一個短暫的現象。
2022 年 11 月 30 日,這次發布並沒有引起太大的關注。大多數 OpenAI 員工甚至不知道 ChatGPT 已經發布了。然而,第二天,使用者群開始急劇增加。
ChatGPT 的瞬間成功:超乎所有人的想像
ChatGPT 的巨大成功甚至超出了 OpenAI 中那些人的最大夢想。在發布僅五天后,OpenAI 聯合創始人 Greg Brockman 在 Twitter 上宣布 ChatGPT 的使用者已突破一百萬。在兩個月內,它達到了驚人的一億使用者里程碑,使其成為當時歷史上增長最快的消費者應用程式。
這種前所未有的增長將 OpenAI 推向了全球舞臺的聚光燈下,將其從科技行業內一個受人尊敬的名字轉變為普通大眾中一個廣為人知的實體。
成功的壓力:成長痛浮現
然而,正是這種成功給 OpenAI 帶來了巨大的壓力。這家最初只有 300 名員工的公司,難以應對用戶的快速湧入以及對其服務不斷升級的需求。
每個團隊都在滿負荷運作,經理們緊急要求 Altman 提供更多的人員。執行團隊最終同意妥協,新招募 250 到 300 名員工。然而,這個限制被證明是不可持續的。到 2023 年夏天,公司每週都在招募 30 到 50 名新員工,其中包括更多招聘人員,以進一步加速招聘過程。到秋天,OpenAI 已經遠遠超過了自己設定的配額。
轉變的公司文化:快速增長的影響
這種突然的增長不可避免地影響了公司的文化。一位招聘人員甚至撰寫了一份宣言,表達了對快速招聘壓力的擔憂,認為這迫使團隊降低了人才獲取的標準。快速擴張也導致了裁員人數的增加。這些裁員很少傳達給公司的其他人員。員工通常只有在同事的 Slack 帳戶變為無效時才發現他們已被解僱。這種做法導致了令人沮喪的術語「被消失」。
對於新員工來說,這個時期感覺像是典型的公司問題的一個特別混亂和殘酷的表現:糟糕的領導、不明確的優先事項以及一種無情、資本主義的做法,將員工視為可支配的資源。一位在這個時期加入 OpenAI 的前員工形容「極度缺乏心理安全感」。
對於一些記得 OpenAI 早期作為一個緊密、以使命驅動的非營利組織的員工來說,轉變為一家大型、非個人化的公司令人深感不安。他們曾經認識的組織已經消失了,取而代之的是一些無法辨認的東西。
迷失使命:日益擴大的分歧
在早期,團隊建立了一個名為 #explainlikeimfive 的 Slack 頻道,允許員工匿名提出關於技術主題的問題。這個論壇培養了一種學習和協作的文化。
然而,到 2023 年年中,一位員工在頻道中發布,表達了對公司僱用太多與其使命不符或對構建通用人工智慧 (AGI) 沒有熱情的人的擔憂。這種擔憂突顯了公司內部日益擴大的分歧,一方仍然致力於原始使命,而另一方則更關注 OpenAI 成功的商業方面。
高層的不協調:戰略漂移和困惑
隨著 OpenAI 的專業化和變得更加引人注目,領導層的任何缺乏協調都變得更加重要。外界開始審視公司的決策和行動,使得內部的矛盾更加明顯。
公眾審查和法律挑戰:駕馭新格局
2023 年底,《紐約時報》對 OpenAI 和 Microsoft 提起版權侵權訴訟,聲稱他們的文章被用來訓練 AI 模型,但未經許可。OpenAI 在 1 月初做出了積極回應,其法律團隊指責《紐約時報》故意操縱模型以創建證據來支持其案件。
同一週,OpenAI 的政策團隊向英國上議院通訊和數位選擇委員會提交了一份聲明,聲稱 OpenAI「不可能」在不使用受版權保護的材料的情況下訓練其先進模型。在媒體強調了「不可能」這個詞後,OpenAI 迅速撤回了該聲明,表明缺乏清晰和一致的訊息傳遞。
混亂還是策略?:缺乏方向
「一直以來都存在太多的困惑,」一位在面向公眾的部門工作的員工承認。雖然這在一定程度上反映了新創公司的典型成長痛,但 OpenAI 的知名度和規模遠遠超過了公司相對早期的階段,該員工補充說。「我不知道高層管理人員中是否存在戰略優先事項。我真的認為人們只是自己做決定。然後突然它開始看起來像一個戰略決策,但實際上只是一個意外。有時沒有計劃,更多的是混亂。」
ChatGPT 的快速增長和成功將 OpenAI 推向了一個新時代。該公司現在面臨的挑戰圍繞著管理其不斷擴大的員工隊伍、維持其原始使命以及駕馭圍繞 AI 開發的複雜的倫理和法律格局。
對凝聚力和戰略願景的需求
該公司的成功並非沒有動盪,這突顯了對凝聚的戰略願景、清晰的溝通以及重新關注其核心價值的需求。OpenAI 的旅程是一個警示故事,講述了在擴大公司規模的同時,如何保持對其使命的忠誠,並為其員工維持一個積極的工作環境所面臨的挑戰。
前方的道路:挑戰與機遇
隨著 OpenAI 的持續發展,其解決這些成長痛的能力將決定其長期成功。該公司持續致力於道德 AI 開發、透明度和員工福祉對於維持其在該領域的領導地位至關重要。在一個越來越受人工智慧塑造的世界中,OpenAI 的旅程提供了關於負責的創新和技術進步中人類要素的重要性的寶貴教訓。
重建信任和培養積極的文化
OpenAI 面臨的最緊迫的挑戰之一是重建員工之間的信任,並培養一個更加積極和支持性的工作環境。公司需要解決已經提出的關於心理安全感、清晰的溝通以及商業成功與其原始使命之間平衡的擔憂。
實現這一目標的關鍵步驟包括:
加強溝通: 實施透明和一致的溝通管道,以使員工隨時了解公司決策、戰略優先事項以及可能影響他們的任何變化。
領導力發展: 投資於領導力培訓,以使管理人員具備有效領導和支持其團隊所需的技能和工具。這包括強調同理心、積極傾聽以及營造心理安全環境的重要性。
使命一致性: 加強公司的核心價值觀,並確保所有員工都了解他們的工作如何為構建有益 AI 的整體使命做出貢獻。這可能包括重新審視 OpenAI 的原始目標和原則,並讓員工參與討論如何在快速變化的環境中維持這些價值觀。
員工回饋機制: 建立正式的機制,讓員工可以提供回饋並表達他們的擔憂,而不必擔心遭到報復。這可能包括定期調查、匿名回饋管道以及員工可以與領導層進行對話的公開論壇。
關注員工福祉: 實施支援員工福祉的政策和計畫,例如彈性工作安排、心理健康資源和專業發展機會。
駕馭倫理和法律格局
除了內部挑戰之外,OpenAI 還必須駕馭圍繞 AI 開發的複雜的倫理和法律格局。《紐約時報》提起的訴訟突顯了對版權侵權以及在訓練 AI 模型中使用受版權保護的材料的日益增長的擔憂。
為了解決這些擔憂,OpenAI 需要:
制定清晰的版權指南: 制定清晰的版權指南,說明在訓練其 AI 模型中使用受版權保護的材料,包括獲得必要的許可和授權。
提高透明度: 公開說明用於訓練其 AI 模型的資料來源,以及它為確保遵守版權法所採取的步驟。
與利害關係人進行對話: 與版權持有人、政策制定者和其他利害關係人進行公開對話,以制定一個負責的 AI 開發框架,該框架尊重智慧財產權。
解決偏見和歧視: 積極努力識別和減輕其 AI 模型中的偏見和歧視,確保它們對所有用戶都是公平和公正的。
推動負責的 AI 治理: 倡導制定負責的 AI 治理框架,以保護用戶權利並推動 AI 的合乎道德的使用。
投資於研究與創新
儘管面臨著挑戰,OpenAI 仍然處於 AI 研究和創新的最前沿。公司必須繼續投資於研發,以推動 AI 技術的界限,並為社會創造有益的應用程式。
重點關注的關鍵領域應包括:
開發更強大和可靠的 AI 模型: 努力提高其 AI 模型的準確性、可靠性和魯棒性,降低錯誤和意外後果的風險。
探索新的 AI 應用程式: 探索 AI 在醫療保健、教育和環境永續性等領域的新穎和創新的應用程式。
促進協作和開源開發: 與其他研究人員和組織合作,以推進 AI 領域,並促進開源開發,以促進創新和透明度。
解決 AI 的潛在風險: 認識並解決 AI 的潛在風險,例如工作崗位流失和將 AI 用於惡意目的。
投資於 AI 安全研究: 投資於 AI 安全研究,以確保 AI 系統與人類價值觀和目標保持一致。
結論
OpenAI 的旅程反映了快速增長和技術創新帶來的複雜挑戰和機遇。通過解決其內部的成長痛、駕馭倫理和法律格局以及繼續投資於研究和創新,OpenAI 可以鞏固其作為 AI 領域領導者的地位,並對社會產生積極影響。公司的成功將取決於其平衡商業願望與其對道德 AI 開發和員工福祉的承諾的能力。