惹怒OpenAI的故事:深度调查

2019年,MIT Technology Review 资深记者 Karen Hao 向她的编辑提出了一个关于 OpenAI 的报道计划,当时这家公司在很大程度上还处于默默无闻的状态。 随后展开的是一段充满意外转折的旅程,揭示了 OpenAI 的雄心壮志在多大程度上偏离了最初的目标。

我第一次踏入 OpenAI 的办公室是在2019年8月7日。当时的首席技术官 Greg Brockman 用犹豫的微笑迎接了我,承认给予如此广泛的访问权限对他们来说是前所未有的。

虽然 OpenAI 对普通大众来说可能相对陌生,但我作为一名报道人工智能不断发展的领域的记者,一直在密切关注其发展。

OpenAI的早期和转变

在2019年之前,OpenAI 在人工智能研究领域被认为有些另类。 它大胆宣称在十年内实现通用人工智能 (AGI) 的目标,遭到了许多人的怀疑。 尽管获得了大量资金,该公司缺乏明确的方向,其营销努力经常被认为过度炒作了其他专家认为缺乏原创性的研究。 尽管如此,OpenAI 也引起了羡慕。 作为一家非营利组织,它声明对商业化没有兴趣,从而创造了一个独特的环境,让人们可以摆脱财务压力的束缚进行知识探索。

然而,在我访问之前的六个月里,一系列快速变化暗示着 OpenAI 的方向发生了重大转变。 第一个迹象是有争议的决定,即尽管公开了 GPT-2 的功能,但仍将其扣留。 接下来是宣布 Sam Altman 从 Y Combinator (YC) 离职后被任命为首席执行官,同时创建了“有上限利润”的结构。 在这些事态发展中,OpenAI 透露了与 Microsoft 的合作关系,授予这家科技巨头商业化 OpenAI 技术的优先权以及独家使用 Microsoft Azure 云服务的权利。

每一项声明都引发了争议、 speculation 和越来越多的关注,超越了科技行业的范围。 随着事态的发展,很难完全理解它们的意义。 然而,很明显,OpenAI 开始对人工智能研究以及政策制定者理解这项技术的方式产生相当大的影响。 过渡到部分营利性企业的决定肯定会给整个行业和政府带来广泛的影响。

一天晚上,在我的编辑的鼓励下,我联系了 OpenAI 的政策主管 Jack Clark, 我之前和他谈过。 我提出了一个关于 OpenAI 的个人简介,意识到这是该公司历史上的一个关键时刻。 Clark 将我与 communications head 联系起来,后者发出了邀请,让我采访领导层并在该公司内部待三天。

走进OpenAI:使命与野心

Brockman 和我与首席科学家 Ilya Sutskever 在一个玻璃会议室里会面。 他们并排坐着,互相补充对方的角色。 Brockman 是程序员和执行者,似乎渴望给人留下积极的印象,而 Sutskever 作为研究员和哲学家,似乎更加放松和超脱。

我首先询问了 OpenAI 的使命:确保有益的 AGI。 为什么要投入数十亿美元来解决这个问题而不是其他问题?

Brockman 在捍卫 OpenAI 的立场方面经验丰富,他表示 AGI 对于解决超出人类能力的复杂问题至关重要。 他以气候变化和医学为例,说明了 AGI 分析大量数据并加速这些关键领域进步的潜力。

他讲述了一位朋友患有罕见疾病的经历,强调了 AGI 如何通过高效地连接专家来简化诊断和治疗。

然后我问了关于 AGI 和 AI 之间的区别。

AGI 曾经是一个小众概念,但很大程度上由于 OpenAI 的影响,它获得了 traction。 AGI 指的是一种假设的人工智能,它在大多数具有经济价值的任务中与人类智能相匹配或超过人类智能。 虽然研究人员取得了进展,但关于模拟人类意识的可能性仍然存在争议。

另一方面,AI 指的是当前的技术和近期的能力,展示了在减缓气候变化和医疗保健方面的应用。

Sutskever 补充说,AGI 可以通过使智能计算机比人类更有效地沟通和协同工作来解决全球挑战,从而绕过激励问题。

这一说法让我质疑 AGI 是否旨在取代人类。 Brockman 回应说,技术应该为人民服务,并确保“经济自由”,同时保持他们的生活质量。

Brockman 认为,OpenAI 的作用不是确定是否会构建 AGI,而是影响创建 AGI 的环境。 他强调,他们的使命是通过构建 AGI 并分配其经济效益来确保 AGI 造福全人类。

我们的对话继续兜圈子,在获取具体细节方面收效甚微。 我尝试了一种不同的方法,询问了这项技术的潜在缺点。

Brockman 列举了 deepfakes 作为一种可能的负面应用。

我提出了人工智能本身对环境的影响。

Sutskever 承认了这个问题,但认为 AGI 可以抵消环境成本。 他强调需要绿色数据中心。

“数据中心是能源的最大消费者, electricity,”Sutskever 继续说道。

“全球占比2%,”我说道。

“Bitcoin 难道不是占1%吗?”Brockman 说道。

Sutskever 后来表示:“我认为地球的整个表面很快就会被数据中心和发电站覆盖,这很有可能。” 将会有一场“计算的海啸……几乎像一种自然现象。”

我质疑他们,OpenAI 正在赌博,它将成功实现有益的 AGI,以抵消全球变暖,然后再采取可能加剧全球变暖的行动。

Brockman 匆忙说道:“我们考虑这个问题的方式如下:我们正处于人工智能进步的道路上。 这比 OpenAI 更重要,对吧? 这是这个领域。 而且我认为社会实际上正在从中受益。”

“我们宣布达成协议的那天,”他说,指的是 Microsoft 新的 10 亿美元投资,“Microsoft 的市值增长了 100 亿美元。 人们相信即使是短期技术也能获得正面的投资回报率。”

OpenAI 的战略因此非常简单,他解释说:跟上这一进度。

当天晚些时候,Brockman 重申,没有人真正知道 AGI 会是什么样子,并补充说他们的任务是不断前进,逐步揭示这项技术的形态。

幕后:透明度与控制

我原本计划在自助餐厅与员工共进午餐,但我被告知我需要到办公室外面。 Brockman 将是我的陪伴者。

这种模式在我整个访问期间都在重复:限制对某些区域的访问,我无法参加的会议,以及研究人员看 communications head 以确保他们没有违反任何披露政策。 在我访问之后,Jack Clark 在 Slack 上向员工发出了严厉警告,不要在未经批准的对话之外与我交谈。 保安也收到了我的照片,以便他们在我未经批准出现在办公场所时能够认出我。 这些行为与 OpenAI 对透明度的承诺形成对比,引发了人们对隐藏了什么问题的质疑。

在午餐时以及随后的几天里,我询问了 Brockman 联合创立 OpenAI 的动机。 他说,在读了 Alan Turing 的一篇论文后,他开始痴迷于复制人类智能的想法。 这激励了他。 他编写了一个 Turing 测试游戏并将其发布到网上,获得了大约 1,500 次点击。 这让他感觉很棒。 “我只是意识到这是我想追求的那种事情,”他说。

他于 2015 年以联合创始人的身份加入 OpenAI,并指出他会尽一切努力使 AGI 实现,即使这意味着当一名看门人。 四年后他结婚时,他在 OpenAI 的办公室举行了一场民事仪式,背景是一面定制的鲜花墙,上面印有实验室六边形标志的形状。 Sutskever 主持了仪式。

“从根本上讲,我想在我的余生中致力于 AGI,”Brockman 告诉我。

我询问是什么激励了他。

Brockman 提到了在他有生之年从事一项变革性技术的机会。 他相信他处于一个独特的地位来促成这种转变。 “真正吸引我的是那些如果我不参与就不会以同样的方式出现的难题,”他说。

他想领导 AGI 并渴望获得对他成就的认可。 2022 年,他成为 OpenAI 的总裁。

利润、使命与竞争

在我们的谈话中,Brockman 断言 OpenAI 的结构变化并没有改变其核心使命。 有上限利润的结构和新的投资者增强了它。 “我们设法找到了这些与使命一致的投资者,他们愿意将使命置于回报之上。 这真是一件疯狂的事情,”他说。

OpenAI 现在有资源来扩展其模型并保持在竞争对手的前面。 如果做不到这一点,可能会破坏其使命。 正是这一假设引发了 OpenAI 的所有行动及其深远的影响。 它给 OpenAI 的每一项研究进展都设定了一个时间限制,其基础不是仔细考虑的时间表,而是必须在别人之前冲过终点线的无情步伐。 它证明了 OpenAI 对令人难以置信的资源消耗是合理的。

Brockman 强调了重新分配 AGI 收益的重要性。

我问了关于技术成功地将收益分配给公众的历史例子。

“嗯,我实际上认为——即使以互联网为例来看,这实际上很有趣,”他说。 “当然也有问题,对吧?” 他作为提醒说道。 “每当你拥有一些超级具有变革性的东西时,要想弄清楚如何最大限度地发挥积极作用,最大限度地减少消极作用,这并非易事。”

“火是另一个例子,”他补充说。 “它也有一些真正的缺点。 所以我们必须弄清楚如何控制它并拥有共同的标准。”

“汽车是一个很好的例子,”他接着说。 “很多人都有汽车,很多人都从中受益。 它们也有一些缺点。 它们有一些外部性对世界来说不一定是好事,”他犹豫地结束了。

“我想我只是认为——我们对 AGI 的期望与互联网的积极方面、汽车的积极方面、火的积极方面没有什么不同。 然而,实施方式非常不同,因为它是一种非常不同的技术。”

他的眼睛闪烁着一个新的想法。 “看看公用事业。 电力公司是非常集中的实体,它们提供低成本、高质量的东西,这些东西能够有意义地改善人们的生活。”

Brockman 似乎再次不清楚 OpenAI 将如何将自己变成一家公用事业公司。

他回到了他唯一确定的事情。 OpenAI 致力于重新分配 AGI 的收益,并赋予每个人经济自由。 “我们实际上是认真的,”他说。

“我们考虑这个问题的方式是:到目前为止,技术一直是可以提高所有船只的东西,但它具有这种真正的集中效应,”他说。 “AGI 可能会更加极端。 如果所有价值都集中在一个地方怎么办? 这就是我们作为一个社会所处的轨迹。 而且我们从未见过如此极端的情况。 我认为那不是一个好的世界。 那不是我想帮助建设的世界。”

后果与反应

2020 年 2 月,我在 MIT Technology Review 上发表了我的个人简介,揭示了 OpenAI 的公众形象与其内部实践之间的不一致之处。 我说“随着时间的推移,它已经允许激烈的竞争和越来越多的资金压力侵蚀其透明、开放和协作的创始理念。”

Elon Musk 回应了三条推文:

“OpenAI 应该更开放 imo”

“我对 OpenAI 没有控制权,只有非常有限的了解。 对 Dario 的安全性的信心不高。” 他指的是研究主管 Dario Amodei。

“所有开发先进人工智能的组织都应该受到监管,包括 Tesla”

Altman 向 OpenAI 的员工发送了一封电子邮件。

“虽然肯定不是灾难性的,但显然很糟糕,”他写道,指的是 MIT Technology Review 的文章。

他写道,这是一个“公平的批评”,这篇文章指出了 OpenAI 的perception 与其 reality 之间的脱节。 他建议 Amodei 和 Musk 会面以解决 Musk 的批评。 为了避免任何疑问,Amodei 的工作和人工智能安全对使命至关重要,他写道。 “我认为我们应该在未来的某个时刻找到一种公开捍卫我们团队的方法(但不要给媒体他们现在喜欢的公开争斗)。”

文章发表后,OpenAI 在三年内再也没有和我说话。