人工智能(AI)的飞速发展在全球范围内引发了广泛的讨论,各行各业、各个国家都在思考建立健全的监督机制的必要性。这些机制旨在降低人工智能变革力量所带来的潜在风险。然而,美国政府最近将一家著名的中国研究机构列入黑名单的决定,给这一关键领域的国际合作前景蒙上了一层阴影。此举虽然旨在维护国家利益,但可能无意中阻碍了全球统一的人工智能治理方法的形成。
北京人工智能研究院被列入黑名单
在国际人工智能界引起震动的举动中,美国政府于2025年3月28日将北京人工智能研究院(BAAI)列入了实体清单。此举实际上限制了BAAI获取美国技术和开展合作,理由是担心该机构可能参与威胁美国国家安全和外交政策利益的活动。这一决定的背后原因在于人工智能的潜在双重用途,即为民用目的开发的技术也可以被用于军事或监视目的。
BAAI是中国领先的研究机构,一直处于人工智能创新的前沿,为自然语言处理、计算机视觉和机器学习等领域做出了重大贡献。将其排除在国际合作之外,引发了人们对人工智能研究碎片化以及标准和规范可能出现分歧的担忧。
人工智能治理中开展国际合作的理由
人工智能的固有性质决定了其治理需要采取全球性的方法。人工智能系统日益互联互通,超越国界,影响着全球社会。人工智能带来的挑战,如偏见、侵犯隐私以及潜在的滥用,需要集体行动和共同承担责任。
统一标准的必要性
国际合作的关键论点之一是需要统一标准。随着人工智能技术在不同国家迅速普及,缺乏通用标准可能导致互操作性问题,阻碍人工智能系统的无缝集成,并为国际贸易与合作设置障碍。统一标准还可以提高信任度和透明度,确保人工智能系统的开发和部署以负责任和符合伦理的方式进行。
解决伦理问题
人工智能引发了许多伦理问题,包括偏见、公平性和问责制。如果人工智能系统在有偏见的数据上进行训练,或者在设计时没有充分考虑到伦理原则,它们可能会延续和放大现有的社会偏见。国际合作对于制定解决这些问题的伦理准则和框架至关重要,以确保人工智能系统的使用方式能够促进人类福祉和社会公正。
降低人工智能滥用的风险
人工智能滥用的可能性,尤其是在自主武器和监控技术等领域,对全球安全和人权构成了重大威胁。国际合作对于建立规范和规章,以防止开发和部署可能被用于恶意目的的人工智能系统至关重要。这包括出口管制、透明度要求以及关于负责任地使用人工智能的国际协议等措施。
排除中国的潜在后果
虽然美国政府将BAAI列入黑名单的决定可能是出于合理的安全考虑,但它也可能带来一些潜在后果,从而破坏建立全球人工智能治理体系的更广泛努力。
阻碍对话与合作
将中国这个人工智能领域的主要参与者排除在国际论坛和合作之外,可能会阻碍在人工智能安全、伦理和安全等关键问题上的对话与合作。没有中国的参与,任何全球人工智能治理框架都可能是不完整和无效的。
助长技术分歧
将BAAI列入黑名单可能会加速技术分歧的趋势,即不同的国家制定自己的人工智能标准和规范,导致碎片化和不兼容。这可能会为国际贸易与合作设置障碍,并增加人工智能系统被用于恶意目的的风险。
限制获取人才和专业知识
中国拥有庞大的人工智能人才和专业知识储备,将中国的研究人员和机构排除在国际合作之外可能会限制获取这一宝贵资源。这可能会减缓人工智能创新的步伐,并阻碍解决全球挑战的方案的开发。
前进的道路:在安全担忧与合作需求之间取得平衡
驾驭复杂的人工智能治理格局需要在解决合理的安全担忧与促进国际合作之间取得微妙的平衡。虽然保护国家利益和防止人工智能的滥用非常重要,但与包括中国在内的所有利益相关者进行接触,以就人工智能带来的风险和机遇达成共识也同样重要。
建立明确的红线
一种方法是建立明确的红线,界定人工智能开发和部署中不可接受的行为。这些红线可以侧重于自主武器、监控技术以及利用人工智能侵犯人权等领域。通过明确阐明这些界限,国际社会可以发出强烈的信号,表明某些人工智能的使用是不可接受的,并且不会被容忍。
促进透明度和问责制
另一个重要步骤是提高人工智能系统开发和部署的透明度和问责制。这包括要求开发人员披露其系统中使用的软件和算法,以及建立独立的审计和监督机制。通过提高透明度和问责制,国际社会可以建立对人工智能系统的信任,并降低滥用的风险。
促进对话与交流
尽管存在挑战,但与中国就人工智能治理问题进行对话与交流至关重要。这可能包括在政府官员、研究人员和行业代表之间建立定期会议,以讨论共同关心的问题。它还可能包括支持联合研究项目和倡议,以促进在人工智能安全、伦理和安全方面的合作。
强调共同利益
最后,重要的是强调所有国家在确保负责任地开发和部署人工智能方面的共同利益。这些共同利益包括促进经济增长、改善医疗保健、应对气候变化以及加强全球安全。通过关注这些共同目标,国际社会可以为人工智能治理方面的合作奠定基础。
对全球技术合作的更广泛影响
美国政府就BAAI采取的行动表明了技术领域地缘政治紧张局势日益加剧的更广泛趋势。这一趋势引发了人们对未来全球技术合作以及技术格局可能出现碎片化的担忧。
“分裂互联网”的风险
最大的风险之一是出现“分裂互联网”,即不同的国家开发自己独立的互联网生态系统,拥有不同的标准、协议和治理结构。这可能会为跨境数据流动设置障碍,阻碍国际贸易与合作,并使解决网络安全和气候变化等全球性挑战变得更加困难。
多边主义的必要性
为了避免最坏的情况,必须重申多边主义和国际合作在技术领域的原则。这包括通过联合国、世界贸易组织和国际电信联盟等国际组织开展工作,为数字时代制定通用标准和规范。
促进开放性和互操作性
同样重要的是,要促进技术领域的开放性和互操作性。这意味着避免限制市场准入或歧视外国公司的保护主义措施。这也意味着支持促进创新和竞争的开放源代码技术和标准。
公众讨论和意识的关键作用
最终,任何监管人工智能和促进全球技术合作的努力能否成功,都取决于培养知情的公众讨论,提高人们对这些技术带来的挑战和机遇的认识。
教育公众
必须对公众进行关于人工智能及其对社会潜在影响的教育。这包括提供关于人工智能技术的准确和易于理解的信息,以及培养对人工智能的伦理和社会影响的批判性思维。
调动公民社会
公民社会组织,包括倡导团体、智囊团和学术机构,在塑造关于人工智能治理的辩论方面发挥着关键作用。这些组织可以提供独立的分析,倡导负责任的政策,并对政府和企业进行问责。
促进媒体素养
最后,重要的是促进媒体素养和打击关于人工智能的虚假信息。这包括教人们如何批判性地评估在线信息,以及支持事实核查举措和打击虚假信息宣传的努力。
总之,将中国排除在人工智能规则制定之外的决定是一个复杂的决定,可能会产生深远的影响。虽然必须解决合理的安全担忧,但至关重要的是要找到一种方法,在这些担忧与国际合作需求之间取得平衡。前进的道路需要建立明确的红线、促进透明度和问责制、促进对话与交流以及强调共同利益。通过共同努力,国际社会可以利用人工智能的力量造福人类,同时减轻其风险,并确保为所有人创造一个更加公平和可持续的未来。 风险很高,现在是采取行动的时候了。