人工智能 (AI) 快速发展并融入我们的日常数字生活,这既令人兴奋,也令人担忧。 虽然 AI 有望彻底改变各行各业并提高效率,但它也带来了一系列新的挑战,尤其是网络犯罪分子对其的利用。软件技术研究公司 Check Point 最近发布的一份 AI 安全报告揭示了这种日益增长的威胁,该报告显示,黑客越来越多地利用 AI 工具来扩大其恶意活动的规模、效率和影响。
Check Point 的这份报告是同类报告中的第一份,强调随着技术的不断发展,迫切需要强大的 AI 保障措施。报告强调,AI 威胁不再是假设场景,而是在实时演变。随着 AI 工具变得越来越容易获得,威胁行为者正在通过两种主要方式利用这种可访问性:通过 AI 增强自身能力以及针对采用 AI 技术的组织和个人。
网络犯罪分子对语言模型的诱惑
网络犯罪分子正在密切关注 AI 采用的趋势。每当向公众发布新的大型语言模型 (LLM) 时,这些恶意行为者都会迅速探索其用于恶意目的的潜力。 ChatGPT 和 OpenAI 的 API 目前是这些犯罪分子最喜欢的工具,但 Google Gemini、Microsoft Copilot 和 Anthropic Claude 等其他模型也正在稳步获得吸引力。
这些语言模型的诱人之处在于它们能够自动化和扩展网络犯罪的各个方面,从制作令人信服的网络钓鱼电子邮件到生成恶意代码。该报告强调了一个令人担忧的趋势:专门为网络犯罪量身定制的恶意 LLM 的开发和交易,通常被称为“黑暗模型”。
黑暗 AI 模型的崛起
DeepSeek 和阿里巴巴的 Qwen 等开源模型正变得越来越吸引网络犯罪分子,因为它们的使用限制极少且可以免费访问。这些模型为恶意实验和改编提供了沃土。然而,该报告揭示了一个更令人震惊的趋势:专门为网络犯罪量身定制的恶意 LLM 的开发和交易。这些“黑暗模型”被设计为绕过道德保障,并公开作为黑客工具进行销售。
一个臭名昭著的例子是 WormGPT,这是一个通过越狱 ChatGPT 创建的模型。WormGPT 被誉为“终极黑客 AI”,可以生成网络钓鱼电子邮件、编写恶意软件和制作社交工程脚本,而没有任何道德过滤器。它甚至得到了一个 Telegram 频道的支持,提供订阅和教程,清楚地表明了黑暗 AI 的商业化。
其他黑暗模型包括 GhostGPT、FraudGPT 和 HackerGPT,每个模型都专为网络犯罪的特定方面而设计。有些只是围绕主流工具的越狱包装器,而另一些则是开源模型的修改版本。这些模型通常在地下论坛和暗网市场上出售或出租,使得各种网络犯罪分子都可以访问它们。
虚假 AI 平台和恶意软件分发
对 AI 工具的需求也导致了虚假 AI 平台的激增,这些平台伪装成合法的服务,但实际上是恶意软件、数据盗窃和金融欺诈的载体。HackerGPT Lite 就是一个例子,它被怀疑是一个网络钓鱼网站。同样,一些提供 DeepSeek 下载的网站据报道正在分发恶意软件。
这些虚假平台通常以先进的 AI 功能或独家功能为诱饵,诱骗毫无戒心的用户。一旦用户与该平台互动,他们可能会被诱骗下载恶意软件或提供敏感信息,例如登录凭据或财务详细信息。
AI 支持的网络攻击的真实案例
Check Point 的报告重点介绍了一个真实的案例,其中涉及一个冒充 ChatGPT 的恶意 Chrome 扩展程序,该扩展程序被发现窃取用户凭据。安装后,它劫持了 Facebook 会话 cookies,使攻击者可以完全访问用户帐户 - 这是一种可以轻松扩展到多个平台的策略。
该事件凸显了与看似无害的浏览器扩展程序相关的风险以及 AI 驱动的社交工程攻击的潜力。网络犯罪分子可以使用 AI 创建令人信服的虚假网站或应用程序来模仿合法服务,从而使用户难以区分真实事物和恶意冒名顶替者。
AI 对网络犯罪规模的影响
Check Point 的报告补充说:“这些 AI 驱动的工具的主要贡献在于它们能够扩展犯罪活动。”“AI 生成的文本使网络犯罪分子能够克服语言和文化障碍,从而显着增强他们执行复杂的实时和离线通信攻击的能力。”
AI 允许网络犯罪分子自动化以前耗时且劳动密集型的任务。例如,AI 可用于在几分钟内生成数千封个性化的网络钓鱼电子邮件,从而增加有人成为诈骗受害者的可能性。
此外,AI 可用于提高网络钓鱼电子邮件和其他社交工程攻击的质量。通过分析用户数据并根据个人收件人定制消息,网络犯罪分子可以创建极具说服力的诈骗,这些诈骗很难检测到。
肯尼亚的威胁形势
肯尼亚当局也在对 AI 支持的网络攻击的兴起敲响警钟。2024 年 10 月,肯尼亚通信管理局 (CA) 警告说,AI 支持的网络攻击有所增加 - 即使在截至 9 月的季度中,总体威胁下降了 41.9%。
CA 总干事 David Mugonyi 说:“网络犯罪分子越来越多地使用 AI 支持的攻击来提高其运营的效率和规模。”“他们利用 AI 和机器学习来自动化创建网络钓鱼电子邮件和其他类型的社交工程。”
他还指出,攻击者越来越多地利用系统错误配置(例如开放端口和弱访问控制)来获得未经授权的访问、窃取敏感数据和部署恶意软件。
肯尼亚并非唯一面临这种威胁的国家。世界各国都在努力应对 AI 支持的网络犯罪带来的挑战。
AI 工具的可访问性和网络攻击日益复杂,使得组织和个人更难以保护自己。
保护 AI 的军备竞赛
随着拥抱 AI 的竞赛加速,保护 AI 的军备竞赛也在加速。对于组织和用户而言,保持警惕不再是可选项,而是必须要做的事情。
为了减轻 AI 支持的网络犯罪的风险,组织需要采取多层安全方法,包括:
- AI 驱动的威胁检测: 实施基于 AI 的安全解决方案,这些解决方案可以实时检测和响应 AI 支持的攻击。
- 员工培训: 教育员工了解 AI 驱动的社交工程攻击的风险,并为他们提供识别和避免这些诈骗的技能。
- 强大的访问控制: 实施强大的访问控制,以防止未经授权访问敏感数据和系统。
- 定期安全审计: 进行定期安全审计,以识别和解决系统和基础设施中的漏洞。
- 协作和信息共享: 与其他组织和安全提供商共享威胁情报,以改善针对 AI 支持的网络犯罪的集体防御。
- 合乎道德的 AI 开发和部署: 确保 AI 系统以合乎道德和负责任的方式开发和部署,并采取保障措施以防止滥用。
个人也可以采取措施保护自己免受 AI 支持的网络犯罪的侵害,包括:
- 警惕未经请求的电子邮件和消息: 打开来自未知发件人的电子邮件和消息时要谨慎,尤其是在包含链接或附件的电子邮件和消息中。
- 验证网站和应用程序的真实性: 在提供任何个人信息之前,确保网站和应用程序是合法的。
- 使用强密码并启用多因素身份验证: 使用强大的、唯一的密码保护帐户,并在可能的情况下启用多因素身份验证。
- 保持软件最新: 定期更新软件和操作系统以修补安全漏洞。
- 报告可疑诈骗: 向适当的当局报告可疑诈骗。
打击 AI 支持的网络犯罪是一场持续的战斗。通过保持知情、采取强有力的安全措施并共同努力,组织和个人可以降低成为这些不断演变的威胁的受害者的风险。