应对监管迷宫:呼吁统一(和优先权)
几家主要AI公司提交的意见书中,一个共同的主线是对各州层面AI法规日益增多的担忧。OpenAI,ChatGPT的创建者,明确呼吁从其认为即将到来的、州一级正在酝酿的700多项不同的法案中解脱出来。然而,OpenAI提出的解决方案不是联邦立法,而是一个狭隘的、自愿的框架。这个框架至关重要的是,将优先于州法规,为AI公司提供一种安全港。作为这种保护的交换,公司将获得利润丰厚的政府合同,并收到有关潜在安全威胁的预警。反过来,政府将有权测试新的模型能力,并将其与外国同行进行基准比较。
Google也表达了类似的观点,主张用“统一的国家前沿AI模型框架”来取代州法律。根据Google的说法,该框架应优先考虑国家安全,同时营造有利于美国AI创新的环境。然而,与OpenAI不同的是,Google并不天生反对联邦AI监管,前提是它侧重于该技术的特定应用。Google的一个关键警告是,AI开发人员不应对他人滥用其工具的行为负责。Google还借此机会推动新的联邦隐私政策,认为它影响AI行业。
除了国内监管,Google还敦促美国政府积极与其他国家的政府就AI立法进行接触。该公司特别警告不要制定可能迫使公司泄露商业机密的法律。它设想了一种国际规范,即只有公司所在国的政府才有权对其AI模型进行深入评估。
中国挑战:出口管制和战略竞争
中国在AI领域快速发展的阴影笼罩在所有主要参与者的意见书中。拜登政府于2024年1月推出的“AI扩散”规则,旨在遏制中国获得美国先进技术,成为争论的焦点。虽然所有公司都承认该规则的存在,但他们提出的修改意见揭示了截然不同的方法。
OpenAI提出了一种“商业外交”战略。它建议扩大该规则的最高层级(目前允许无限制地进口美国AI芯片)以包括更多国家。条件是什么?这些国家必须承诺“民主AI原则”,以“促进其公民更多自由”的方式部署AI系统。这种方法试图利用美国的技术领先地位来激励全球采用价值观一致的AI治理。
Microsoft与OpenAI一样,希望扩大扩散规则的最高层级。然而,Microsoft也强调需要加强执法。它呼吁增加商务部的资源,以确保尖端AI芯片仅在经美国政府认证为可信和安全的数据中心中出口和部署。这项措施旨在防止中国公司通过在亚洲和中东地区日益增长的“灰色市场”中,通过规模较小、审查较少的较小数据中心提供商获取强大的AI芯片,从而规避限制。
Anthropic,Claude AI模型的开发者,主张对AI扩散规则第二层级的国家实施更严格的控制,特别是限制它们获得Nvidia的H100芯片。此外,Anthropic敦促美国将出口管制扩大到包括Nvidia的H20芯片,这些芯片是专门为中国市场设计的,以符合美国现有的法规。这表明Anthropic在阻止中国获得任何可能增强其AI能力的技术方面采取了更强硬的立场。
Google与其竞争对手明显不同,明确表示反对AI扩散规则。虽然承认其国家安全目标的有效性,但Google认为该规则给“美国云服务提供商带来了不成比例的负担”。这一立场反映了Google更广泛的担忧,即法规可能会扼杀创新并阻碍其全球竞争力。
除了扩散规则之外,OpenAI进一步提高了赌注,建议在全球范围内禁止华为芯片和中国的“侵犯用户隐私并造成安全风险(如知识产权盗窃风险)的模型”。这也被广泛解读为对DeepSeek的挖苦。
版权和AI的燃料:驾驭知识产权
版权这个棘手的问题,特别是在训练AI模型的背景下,也受到了极大的关注。OpenAI明确驳斥了欧洲的AI法案,批评了该法案赋予版权所有者选择不将其作品用于AI训练的权利的条款。OpenAI敦促美国政府“阻止创新能力较弱的国家将其法律制度强加给美国AI公司,并减缓我们的进步速度”。这一立场反映了OpenAI的信念,即不受限制地访问数据对于保持美国在AI领域的竞争优势至关重要。
另一方面,Google呼吁“平衡的版权法”,以及自动豁免公开信息的隐私法。这表明了一种更细致的方法,承认创作者的权利,同时也认识到数据对AI发展的重要性。Google还提议审查“错误授予的AI专利”,强调越来越多的美国AI专利被中国公司收购。
驱动未来:基础设施和能源需求
训练和运行先进AI模型所需的巨大计算能力需要基础设施和能源资源的大幅扩展。OpenAI、Anthropic和Google都主张简化输电线路的审批流程,旨在加快能源基础设施的建设,以支持新的AI数据中心。
Anthropic采取了特别大胆的立场,呼吁到2027年,美国增加50吉瓦的能源,专门用于AI。这凸显了快速发展的AI领域对能源的巨大需求,以及AI可能成为能源消耗主要驱动力的潜力。
安全、政府采用和AI驱动的国家
这些意见书还深入探讨了AI、国家安全和政府运作的交叉点。OpenAI建议加快顶级AI工具的网络安全审批,使政府机构能够更轻松地测试和部署它们。它还建议建立公私合作伙伴关系,以开发可能没有可行商业市场的国家安全型AI模型,例如为机密核任务设计的模型。
Anthropic响应了加快采购程序以将AI整合到政府职能中的呼吁。值得注意的是,Anthropic还强调了美国国家标准与技术研究院 (NIST) 和美国AI安全研究所强大的安全评估角色的重要性。
Google认为,应允许国家安全机构利用商业存储和计算资源来满足其AI需求。它还主张政府发布其数据集用于商业AI训练,并强制要求在不同的政府云部署中使用开放数据标准和API,以促进“AI驱动的洞察”。
社会影响:劳动力市场和AI驱动的转型
最后,这些意见书触及了AI更广泛的社会影响,特别是它对劳动力市场的潜在影响。Anthropic敦促政府密切监测劳动力市场趋势,并为重大 disruption 做好准备。Google同样承认即将发生的变化,强调需要更广泛的AI技能发展。Google还要求增加对AI研究的资助,并制定一项政策,以确保美国研究人员能够充分获得计算能力、数据和模型。
从本质上讲,提交给“AI行动计划”的意见书描绘了一个处于关键时刻的行业。虽然美国领先的公司在推进AI技术方面有着共同的雄心,但它们在如何应对监管、国际竞争和社会影响等复杂挑战方面持有根本不同的观点。未来几个月和几年将揭示这些不同的愿景如何塑造AI的未来,不仅在美国,而且在全球范围内。