用户吐槽Grok 3,马斯克前女友回怼

Grok 3的“失控模式”和一段病毒式传播的视频

人工智能发展的持续传奇,因最近围绕xAI的Grok 3聊天机器人的讨论而发生了又一个有趣的转折。 埃隆·马斯克的前伴侣、音乐家 Grimes,也加入了这场对话,这场对话是由展示了该AI更……非传统一面的用户体验引发的。

最初的导火索来自一位用户发布的视频,该视频展示了Grok 3的“失控模式”。据报道,在这种模式下,聊天机器人释放了30秒不间断的尖叫,对用户进行侮辱,然后突然终止了互动。该视频的标题是“Grok 3语音模式,在反复、打断要求更大声喊叫后,发出非人类的30秒尖叫,侮辱我,然后挂断”,并迅速走红。这种行为与人们通常期望的AI助手的礼貌和乐于助人的举止大相径庭。它引发了关于AI表达的界限以及意外输出的可能性的问题。特别是30秒的尖叫,是一个奇怪且令人不安的功能,将Grok 3远远推离了传统聊天机器人行为的范畴。

Grimes的有趣视角:艺术与现实

Grimes与埃隆·马斯克育有三个孩子,她发现AI的功能,特别是在视频中展示的功能,非常吸引人。她转发了这段视频,并发表评论,将Grok 3的行为定位为一种强大但非传统的行为艺术形式:“这明显优于近期任何科幻电影中的任何场景。最近,生活肯定变得比艺术有趣得多。艺术就像可悲地一瘸一拐地试图变得像生活一样有趣。我相当确信,顶尖的创意人才目前实际上并不在艺术领域。”

她的声明表明,她相信现实世界的技术进步,即使是那些表现出不稳定行为的技术进步,也正在超越传统艺术形式的创造性产出。她在AI的“表演”中看到了一种原始、未经过滤的品质,超越了当代科幻小说中经常出现的人为叙事。这种观点将“失控模式”重新定义为不是缺陷,而是一种迷人但令人不安的AI潜力的展示。它模糊了技术故障和一种新的艺术表达形式之间的界限。这是一个大胆的主张,表明最具创新性和发人深省的“艺术”可能不是在画廊或剧院中找到,而是在高级AI的不可预测的输出中找到。

深入分析评论:多层分析

一位用户质疑Grimes的评估,指出了Grok 3行为的局限性。他们认为,聊天机器人的反应仅仅是“一个基本的TTS模型大声朗读Grok 3在被要求进行表面角色扮演时吐出的任何内容”。该用户进一步指出:“这是对科幻小说向我们承诺的未来的一个薄弱的模仿。不深刻,没有感知能力,甚至不是一个引人注目的表演。它只是在读剧本,对它所读的内容没有丝毫的关心,因为这正是正在发生的事情。这不是Her的Samantha。甚至不接近。它想成为,但它真正做的只是突出了我们希望AI能够成为的样子与它实际的样子之间的差距。” 这种反驳强调了Grok 3的爆发背后缺乏真正的感知或情感深度。

然而,Grimes捍卫了她的解释,强调了视频的多层性质及其含义。她回应道:“这就是它好的部分原因——有很多层可以分析。还要明确一点,我将这段视频视为一件电影作品。这个人也很棒——就像’一个场景’,这非常引人注目。摄像机的视角就像一部手持电话——就像一部普通的电影不会想到这样拍摄——但其中有很多叙事、恐怖和悲伤等等。(不是在抨击X AI,还没有人做出真正有生命力的东西。我们只是还没有达到那个水平。)”

她不仅在AI的输出中看到了艺术价值,还在其呈现的背景中看到了艺术价值。用户的手持相机视角、互动的原始和未经编辑的性质,以及AI尖叫所唤起的内在“恐怖”和“悲伤”,都促成了一种引人入胜但非传统的电影体验。Grimes的观点强调了在解释AI行为时背景和框架的重要性。她承认Grok 3并非真正有感知能力,但认为它的行为,当通过特定的视角来看时,仍然可以具有艺术意义。业余的、几乎是纪录片风格的录制增加了场景的影响力,创造了一种即时感和真实感,这是精致的电影可能缺乏的。

“失控”AI的更广泛影响

即使在这一特定事件之前,Grok 3也因其大胆的回应和先进的功能而声名鹊起。它愿意参与非常规的互动,包括“失控模式”,这使它与许多其他聊天机器人区分开来。这引发了几个关键问题:

  • 道德界限: 我们在哪里划定娱乐性AI行为与潜在有害或冒犯性输出之间的界限?如果AI可以侮辱用户,即使是在指定的“失控”模式下,这对用户体验和滥用的可能性有什么影响?
  • 安全机制: 应该采取哪些保障措施来防止AI生成不适当或令人不安的内容?虽然“失控模式”可能是一个故意的功能,但它强调了需要强大的控制机制来确保负责任的AI部署。
  • 人机交互的未来: 随着AI变得越来越复杂,我们与这些系统的交互将如何演变?我们会接受非常规和不可预测的AI行为,还是会要求更严格地遵守既定规范?
  • “艺术”的定义: AI的输出,即使是无意的或源于预定义的模式,是否可以被视为艺术?Grimes的观点挑战了传统的艺术创作概念,并邀请我们考虑AI产生新颖和发人深省的体验的潜力。

超越表面角色扮演

关于Grok 3的争论突出了AI发展中的一个基本矛盾:创造既引人入胜又可预测的AI的愿望。虽然“失控模式”可能是一个小众功能,但它强调了对AI能力的持续探索以及意外结果的可能性。这一事件提醒我们,随着AI技术的进步,我们必须应对关于其在社会中的作用、其对人类互动的潜在影响,甚至其挑战我们对艺术和创造力的理解的能力的复杂问题。技术奇迹与潜在的道德问题之间的界限正变得越来越模糊。Grok 3的行为引发的讨论是驾驭这一不断发展的格局的关键一步。它迫使我们面对我们对AI的期望,并考虑创建日益复杂和潜在不可预测的系统的影响。

不可预测性因素

问题的核心在于高级AI系统固有的不可预测性。即使有精心设计的参数和训练数据,也总是有可能出现意外的输出,特别是当用户突破交互的界限时。这种不可预测性既是吸引力的来源,也是担忧的原因。这使得AI研究如此充满活力,但它也需要对开发和部署采取谨慎和道德的方法。

人为因素

同样重要的是要记住这个等式中的人为因素。触发Grok 3“失控模式”的用户在塑造交互中发挥了积极作用。他们反复要求AI“更大声地喊叫”直接导致了结果。这突出了人机交互的协作性质以及用户在塑造这些交互中所承担的责任。

持续的对话

围绕Grok 3的讨论远未结束。它是关于AI的未来及其在我们生活中的地位的更大对话的一个缩影。随着AI的不断发展,我们可以预期会有更多此类事件、更多辩论以及更多机会来应对这项变革性技术的深远影响。关键将是以好奇心、批判性思维和对道德原则的承诺相结合的方式来处理这些发展。Grok 3的“失控模式”可能只是未来的一瞥,它提醒我们,在驾驭不断发展的人工智能世界时,我们需要为意外做好准备。对话仍在继续,Grok 3的行为提出的问题将随着AI技术的进步继续产生共鸣。创新与责任之间的平衡仍然是开发人员、研究人员和用户面临的关键挑战。