国家为何会卷入冲突?是为了领土、声望、历史意义、宗教信仰、复仇,还是为了纠正自认为的不公正?虽然可以提出无数种理由,但根本驱动因素总是归结为资源。没有足够的资源——包括人力资本和有形资产——一个国家的潜力将受到严重限制。本质上,这是关于经济可行性的问题。
因此,各国必须保持警惕和积极主动。尽管一再发出警告,许多领导人似乎仍然专注于琐碎的事务,就像尼禄在罗马燃烧时拨弄小提琴一样。我们生活在一个充满固有缺陷的世界中,其特点是深刻的不平等、普遍的苦难和无数的悲剧。令人震惊的是,我们似乎正梦游般地走向一场即将到来的灾难。
想想人工智能 (AI) 领域的指数级发展速度。近来,创新步伐急剧加快。这种加速的一个重要催化剂是日益激烈的国际竞争。在DeepSeek出现之前,人们普遍认为,潜在的反乌托邦未来的到来比我们最初预期的要晚。
然而,DeepSeek的到来,以及像Manus这样的人工智能代理的出现,以及对该行业投资的激增,已经显著地改变了格局。重要的是要记住,这仅仅是中国报道出来的东西。想想其他许多可能在暗中从事人工智能开发的国家、组织或非国家行为者。这意味着进步将始终超过人类最终可能建立的任何监管框架。此外,这些模型中的任何一个都可能发生危险的转变。
我们仍在努力解决关于人工智能潜在影响的基本问题。例如,人工智能是否有可能取代所有现有的工作?又会在什么时候发生?围绕这个话题的讨论通常具有三种不同的回应:理想主义的乐观、不断转移的目标,以及赤裸裸的虚伪。乐观的观点认为,如果机器接管了我们的工作,我们只需找到其他的追求。转移目标包括不断提高人工智能的能力门槛,从图灵测试到通用人工智能 (AGI) 的概念,再到奇点的抽象,最终到人工超智能 (ASI)。当所有这些里程碑都达到,并且我们逐渐将我们的批判性思维能力让给机器时,我们可能会发明更琐碎的概念。
令人沮丧的是,智人正试图以对待动物王国中意识证明的同样方式来对待这种潜在的无限力量:否认、强加不切实际的测试,以及不可避免的失败。对我们来说不幸的是,我们的数字创造物不能被轻易压制,甚至根本无法压制。
这种抵制的原因很清楚:数万亿美元的投资岌岌可危。此外,许多与伦理相关的研究计划都依赖于赠款资助。
承认潜在的后果将意味着这些投资的蒸发。因此,目前的策略是保持故意的模糊,希望最坏的情况不会在自己有生之年发生,或者自己积累了足够的财富来保护自己免受其影响。笔者有责任强调,这些事件很可能会在我们有生之年发生,而且比许多人预期的要早。
那么,第三种回应,虚伪又如何呢?回顾一下生命未来研究所 (Future of Life Institute) 于 2023 年发表的措辞优美的公开信,该信获得了超过 33,705 个签名,包括埃隆·马斯克 (Elon Musk) 的签名?这封信以引人注目的声明开头:’暂停巨型人工智能实验:一封公开信——我们呼吁所有人工智能实验室立即暂停至少 6 个月,暂停训练比 GPT-4 更强大的人工智能系统。’ 最终,这个呼吁怎么样了?看来马斯克希望有更多的时间来推出更强大的人工智能模型。
那么,阿西洛马人工智能原则 (Asilomar AI Principles) 中提出的担忧又如何了呢?该原则指出:’先进的人工智能可能代表地球生命历史上的一次深刻变革,应该以相应的谨慎和资源进行计划和管理’?这封信哀叹说,这种程度的规划和管理并没有发生,人工智能实验室正在进行一场不受控制的竞赛,以开发数字思维,即使是它们的创造者也无法完全理解、预测或可靠地控制。答案是,什么都没改变。
这是一个简单的真理:人工智能模型是使用人工神经网络 (ANN) 构建的,人工神经网络旨在模仿人类的神经网络。关键的区别在于,人脑是有限的,而由于硬件和基于云的计算的进步,人工神经网络可以不断地用额外的资源来扩充。我们的身体也受到限制。没有技术的帮助,我们无法在太空中或水下生存。
人工智能的物理表现
人工智能可能居住的物理形式(机器人)不受同样的限制。认为人类可以比人工智能做得更好的任务是天真的。我们唯一的希望可能是出现类似于道格拉斯·亚当斯 (Douglas Adams) 的深思 (Deep Thought) 的人工超智能 (ASI),这是一个非常聪明的实体,它故意进入长达几个世纪的休眠状态,只是为了确保人类保留一些目标。银河系漫游指南 (The Hitchhiker’s Guide to the Galaxy) 被归类为幽默科幻小说是有原因的:它不太可能成为现实。如果您认为从长远来看,某些人类工作会幸存下来,我向您挑战,请指出它们。
真正的威胁:不是人工智能本身
必须记住,人工智能本身并不是敌人。真正的威胁在于普遍存在的自私和贪婪的力量,这是发达资本主义的基石。经济考虑将不可避免地导致这些技术被广泛部署以取代人类劳动。人类有局限性。你每天无法工作超过 10-12 小时。你需要睡眠、营养、休闲时间和住房。人工智能则不需要。
缓解尝试及其缺点
人们已经做出了一些微弱的尝试来减轻人工智能潜在的负面影响。例如,马斯克的脑机接口公司 Neuralink 旨在将人脑与技术融合。然而,电视剧 异星灾变 (Severance) 有效地说明了脑机接口的潜在复杂性。即使你认为成为部分赛博格人会提供优势,也要考虑来自先进人工智能的激烈竞争。你将被迫逐步用合成大脑来取代你的有机大脑。这就是最终的计划吗?为了打败机器,我们必须变成机器?那么人类又会变成什么?
DeepSeek 时刻不仅仅是科技巨头的警钟,也是我们所有人的警钟。它标志着一个不归路。这个精灵无法被放回瓶子里。令人遗憾的是,关于这些发展的新闻报道没有受到应有的关注。媒体的回应让人想起电影 泰坦尼克号 (Titanic) 中的母亲,她试图哄她的孩子们睡觉,这样当船沉没时,他们就会无痛苦地死去。难道我们不应该被告知真相吗?
经济在人工智能竞赛中的作用
对经济利益的无情追求是人工智能快速发展和部署的主要推动力。随着人工智能系统变得越来越复杂和强大,它们对人类劳动力的吸引力越来越大。公司有动力采用人工智能技术来降低成本、提高效率和增加利润。这种经济上的迫切性推动了人工智能竞赛,因为企业竞相开发和实施最先进的人工智能解决方案。
提高生产力和降低运营成本的前景是各行各业企业的强大动力。人工智能驱动的自动化可以简化流程、优化资源分配和改进决策,从而显著节省成本并改善利润。因此,企业正在大力投资人工智能研究和开发,从而推动该领域的进一步发展。
人工智能的经济效益不仅限于个别公司。各国政府也在投资人工智能,以提高国家竞争力并推动经济增长。人工智能被认为是提高全球经济生产力、创新和竞争力的关键技术。各国政府正在为人工智能研究提供资金、制定国家人工智能战略,并促进在各个领域采用人工智能技术。
然而,推动人工智能竞赛的经济激励也引发了人们对工作岗位流失和不平等加剧的担忧。随着人工智能系统越来越能够执行以前由人类完成的任务,许多工人可能会失去工作。这可能导致失业率上升、工资下降以及贫富差距扩大。
解决这些问题需要采取积极措施来减轻人工智能对劳动力的负面影响。这可能包括投资于教育和培训项目,以帮助工人获得新技能,提供社会安全网以支持那些失去工作的人,以及探索更公平地分配人工智能收益的新经济模式。
人工智能时代的伦理考量
人工智能的快速发展和部署提出了深刻的伦理问题,社会必须努力解决。随着人工智能系统变得越来越复杂和自主,至关重要的是要考虑其行为的伦理含义,并确保其与人类价值观保持一致。
围绕人工智能的一个关键伦理问题是偏见问题。人工智能系统是在数据上训练的,如果这些数据反映了社会中现有的偏见,那么人工智能系统很可能会延续这些偏见。这可能导致在招聘、贷款和刑事司法等领域出现不公平或歧视性的结果。
为了解决人工智能中的偏见问题,必须确保人工智能系统是在多样化和具有代表性的数据集上训练的。同样重要的是开发检测和减轻人工智能算法中偏见的技术。此外,透明度和问责制对于确保人工智能系统得到合乎道德的使用至关重要。
另一个伦理考虑是人工智能可能被用于恶意目的。人工智能可能被用于开发自主武器、制造复杂的网络钓鱼诈骗或传播虚假信息。必须制定保障措施,以防止人工智能被用于有害目的。
这包括制定人工智能发展伦理指南、推广负责任的人工智能实践以及制定规范人工智能使用的国际协议。同样重要的是促进公众对人工智能及其潜在风险和收益的理解。
人工智能驱动的世界中人类的未来
人工智能的出现为人类带来了前所未有的机遇和深刻的挑战。随着人工智能系统越来越融入我们的生活,至关重要的是要考虑工作、教育和整个社会的未来。
关键挑战之一是确保人工智能被用于增强人类的能力,而不是完全取代它们。这需要将重点从自动化任务转移到赋能工人。人工智能应该被用来帮助人们在工作中更有效率、更有创造力,并且更充实。
教育也需要适应不断变化的格局。学生需要学习与人工智能驱动的经济相关的的新技能,例如批判性思维、解决问题和创造力。他们还需要深入了解人工智能及其潜在影响。
此外,整个社会需要解决不平等和社会动荡加剧的可能性。这可能涉及实施诸如全民基本收入、扩大教育和培训机会以及促进社会包容等政策。
最终,人工智能驱动的世界中人类的未来将取决于我们能否利用人工智能的力量造福人类,同时减轻其潜在风险。这需要政府、企业、研究人员和公民社会的共同努力。通过共同努力,我们可以确保人工智能被用于为所有人创造一个更加公正、公平和可持续的未来。