创新权衡:一把双刃剑
任何全面禁止外国AI技术的行为,最大的牺牲品都将是创新的潜力。虽然其声称的意图可能是阻止不受信任的AI,但实际结果可能是孤立美国的创新生态系统,甚至可能超过中国施加的限制。这些禁令通常考虑不周,影响范围往往比最初预期的更广,在限制获取关键技术的同时,也扼杀了市场活力和合作努力。
至少,这种技术孤岛化会消除外国竞争带来的有益压力,从而削弱美国市场的活力。国际竞争的优势对美国AI公司来说已经显而易见。在限制性的AI制度下,这种强大的激励将消失,可能导致发展速度放缓。
除了抑制市场力量外,禁止外国AI还将通过阻止技术进步的交叉融合来进一步阻碍创新。 获得各种各样的技术使美国工程师能够自由地试验、学习和整合来自世界各地的宝贵创新。在美国AI领域,长期以来一直享有主导地位,这种动态可能被低估了。然而,如果美国工业落后,重新获得领先地位很可能取决于这种畅通无阻的技术思想交流。
对于那些处于创新前沿的人来说,获得外国AI可能非常重要。无论美国是否保持在AI市场的领导地位,国际模型都是学习、灵感和新思想的重要来源。如果美国有朝一日放弃其领先地位,学习和适应尖端系统的自由可能成为我们重新获得优势的绝对必要条件。 冒险实施禁令的政策制定者可能会巩固外国实体的竞争优势。
网络安全影响:防御减弱
限制对中国AI的访问也存在损害网络安全的风险。AI系统越来越多地被赋予网络能力,在进攻和防御行动中都发挥着双重作用。
这些发展表明,AI将很快在不断变化的网络威胁态势中发挥关键作用。对于安全研究人员来说,理解和防御这些新出现的威胁将需要对外国AI系统有深入的了解。如果没有对这些模型进行持续的、不受限制的实验,美国安全专家将缺乏有效应对恶意AI应用所需的关键知识和熟悉度。
对于私营部门的防御性网络安全态势,访问外国模型可能很快变得更加不可或缺。
如果AI驱动的扫描工具成为行业标准,那么访问各种模型将至关重要。每个模型都有独特的优势、劣势和知识领域。不可避免地,每个模型都会识别出不同的漏洞。在不久的将来,一个全面的网络安全战略可能需要配备多个AI系统的扫描软件。对于美国组织而言,禁止中国或其他外国AI将意味着原本可检测到的漏洞的盲点。由于束手无策,美国软件将变得更加脆弱,可能允许外国竞争对手决定全球安全标准。
驾驭风险:一种审慎的方法
在快速发展的AI市场中,获得外国技术对于保持技术对等、促进创新和确保强大的安全性仍然至关重要。这并不是说美国应该无视来自敌对国家的技术所构成的国家安全风险。理想情况下,先进技术将完全由以市场为导向的自由民主国家开发,使其免于在间谍活动、审查制度或蓄意制造网络不安全行为中为专制政权服务。然而,这不是当前的现实,极权主义和敌对政权将继续投资于技术发展。例如,Deepseek 在中国政府的监督下运作,鉴于政府有权要求公司提供数据的法律权力,以及其蓄意在消费技术中植入安全漏洞的历史,人们有理由对此表示怀疑。
为了保留开放技术访问的基本好处,同时减轻这些风险,官员应避免实施全面禁令。相反,政策制定者必须采取一种限制较少的方法,将知情使用、应用商店安全管理以及在绝对必要时针对特定安全关键环境的狭义法规相结合。
对于普通用户而言,目前与中国AI相关的安全风险可能微乎其微,最有效的通用风险缓解策略是知情使用。鉴于AI市场上有大量的选择和产品信息,用户有相当大的自由来学习并选择符合其个人安全和隐私需求的特定模型。在大多数情况下,用户可以并且将会默认选择美国模型。但是,当他们希望尝试外国替代方案时,应该允许他们这样做。在自我教育和选择可能不足的情况下,应用商店管理可以作为基本的安全保障。领先的应用商店已经在积极扫描产品是否存在明显的安全问题,并在必要时删除不安全的软件。
如果中国或外国AI系统确实存在不可接受的风险,政策制定者应仔细调整针对这些特定情况的法规。例如,高度敏感的联邦数据不应由中国AI处理。一个适当范围的例子是 ‘No Deepseek on Government Devices Act’,该法案将限制在联邦系统上使用 Deepseek。这种监管模式应作为类似工作的指南。法规应该是例外,而不是规则,但在需要时,它们应该是针对特定环境的,以避免不必要地限制使用和实验的一般自由。
前进的道路:平衡安全与开放
鉴于地缘政治紧张局势和相互冲突的价值观,Deepseek 和其他中国AI技术无疑值得审查和怀疑。然而,任何全面的禁令不仅会牺牲一般的使用自由,还会牺牲关键的市场活力、创新机会和网络安全优势。通过采取一种审慎的方法,优先考虑知情使用、应用商店管理以及在绝对必要时采取范围狭窄的监管,美国可以保持技术开放性,这对于安全和全球领导地位都至关重要。
为了进一步阐述具体观点:
1. 市场活力的细微差别:
“市场活力”的概念不仅仅是简单的竞争。它涵盖了整个创新生态系统,包括:
- 创新速度: 外国竞争起到了催化剂的作用,迫使国内公司以更快的速度进行创新,以保持其竞争优势。
- 方法的多样性: 不同的公司和研究小组,无论是国内的还是国外的,都会探索不同的方法来解决AI问题。这种多样性带来了更丰富的思想和潜在突破。
- 人才吸引力: 一个充满活力和开放的AI生态系统吸引了来自世界各地的顶尖人才,进一步推动了创新。
- 投资流动: 健康的竞争环境吸引投资,为研发提供所需的资源。
限制对外国AI的访问将扼杀市场活力的这些方面,可能导致美国AI部门的创新性和竞争力下降。
2. 技术交叉融合的具体细节:
“技术交叉融合”不仅仅是复制想法。它涉及:
- 理解不同的架构: 检查外国AI模型的设计方式可以提供对美国研究人员可能没有考虑过的替代架构和方法的见解。
- 识别新技术: 外国AI模型可能采用独特的算法或训练技术,美国研究人员可以对其进行调整和改进。
- 基准测试和评估: 比较美国和外国AI模型在各种任务上的表现提供了有价值的基准,并有助于确定需要改进的领域。
- 灵感和创造力: 接触不同的方法可以激发新的想法,并激发创造性的解决方案来解决具有挑战性的AI问题。
通过限制对外国AI的访问,美国将剥夺自己这些宝贵的学习机会。
3. 网络安全:超越防御措施:
AI的网络安全影响不仅限于防御措施。AI还可以用于:
- 进攻性网络行动: AI驱动的工具可以自动发现漏洞、开发漏洞利用程序和执行网络攻击。
- 威胁情报: AI可用于分析大量数据,以识别新出现的威胁并预测未来的攻击。
- 欺骗和虚假信息: AI可用于生成逼真的虚假内容,包括文本、图像和视频,以传播虚假信息或操纵公众舆论。
了解外国对手如何在这些领域使用AI对于制定有效的对策至关重要。
4. 知情使用的重要性:
“知情使用”不仅仅是阅读产品说明。它涉及:
- 了解风险: 用户应了解与使用任何AI系统相关的潜在安全和隐私风险,无论其来源如何。
- 评估来源: 用户应考虑开发AI系统的公司或组织的声誉和可信度。
- 阅读隐私政策: 用户应仔细阅读AI系统的隐私政策,以了解他们的数据将如何被收集、使用和共享。
- 使用强密码和安全措施: 用户在使用AI系统时应遵循基本的网络安全最佳实践,例如使用强密码和启用双重身份验证。
- 保持知情: 用户应及时了解最新的AI安全和隐私新闻及最佳实践。
赋予用户这些知识是至关重要的第一道防线。
5. 应用商店管理:必要的保障:
应用商店管理通过以下方式提供了额外的保护层:
- 审查应用程序的安全漏洞: 应用商店可以在应用程序向用户提供之前扫描已知的安全漏洞。
- 删除恶意应用程序: 应用商店可以删除被发现是恶意的或违反其服务条款的应用程序。
- 提供用户评论和评级: 用户评论和评级可以帮助用户了解应用程序的质量和可信度。
- 强制执行安全标准: 应用商店可以强制开发人员执行安全标准,要求他们在应用程序中实施某些安全措施。
此管理过程有助于为用户创建一个更安全的环境来试验AI技术。
6. 范围狭窄的监管:例外,而不是规则:
监管应谨慎使用,并且仅在绝对必要时使用。在需要时,它应该是:
- 有针对性的: 法规应侧重于特定风险和特定环境,而不是广泛的禁令。
- 相称的: 法规应与其旨在解决的风险相称。
- 基于证据的: 法规应基于确凿的损害证据,而不是猜测或恐惧。
- 定期审查: 应定期审查法规,以确保它们仍然是必要的和有效的。
- 透明的: 制定和实施法规的过程应透明并向公众开放。
这种方法可确保法规不会不必要地扼杀创新或限制用户和研究人员的自由。‘No Deepseek on Government Devices Act’ 提供了一个很好的模型。
通过仔细考虑这些因素并采取细致入微的方法,美国可以驾驭AI发展的复杂格局,并在维护其国家安全的同时保持其领导地位。关键是在开放性和安全性之间取得平衡,在降低风险的同时促进创新。