开源AI在医疗诊断领域的崛起
人工智能 (AI) 辅助诊断领域直到最近,主要由 OpenAI 和 Google 等科技巨头开发的专有 AI 模型主导。这些闭源模型虽然功能强大,但都在外部服务器上运行。这使得医院和临床医生必须将患者数据传输到其安全网络之外,引发了对数据隐私和安全性的担忧。
相比之下,开源 AI 模型提供了一个引人注目的替代方案。这些模型可以免费获得,而且至关重要的是,可以根据不同临床环境的具体要求进行定制。能够在医院自己的内部服务器上运行这些模型,显著提高了数据隐私水平,并提供了将 AI 适应特定实践的独特患者人群的灵活性。然而,一个重要的障碍一直是开源模型与其专有模型之间的性能差距。最近的研究表明,这一差距正在迅速缩小。
开源AI匹敌GPT-4的性能
哈佛医学院的研究团队仔细评估了 Meta 的 Llama 3.1 405B(一种开源 AI 模型)与强大的 GPT-4 的对比。评估包括让两种模型都接受一项严格的测试,该测试包含 92 个先前发表在 The New England Journal of Medicine 上的复杂诊断病例。结果令人震惊:
- 诊断准确率: Llama 3.1 在 70% 的病例中正确识别出诊断结果,超过了 GPT-4 的 64% 的准确率。
- 首选建议准确率: 在 41% 的病例中,Llama 3.1 将正确的诊断列为其主要建议,略胜于 GPT-4(在 37% 的病例中实现了这一点)。
- 对较新病例的表现: 当专注于较新病例的子集时,Llama 3.1 的准确性进一步提高,正确诊断了 73% 的病例,并在 45% 的情况下将正确的诊断置于其建议的首位。
这些发现有力地表明,开源 AI 模型不仅在追赶,而且在某些方面,正在超越领先的专有模型的性能。这为医生提供了一个可行的、可能更安全的 AI 辅助诊断替代方案。
医生需要考虑的关键因素:开源与专有AI
高性能开源 AI 模型的出现为初级保健医生、诊所所有者和管理者引入了一个关键的决策点。专有 AI 和开源 AI 之间的选择取决于对几个关键因素的仔细评估:
数据隐私和安全: 开源模型最显著的优势或许是它们能够在本地托管。这意味着敏感的患者信息安全地保留在医院或诊所网络的范围内,而不是传输到由第三方提供商管理的外部服务器。这种本地化方法显著降低了数据泄露的风险,并增强了对数据保护法规的遵从性。
定制和适应性: 专有 AI 模型通常被设计为“一刀切”的解决方案。虽然它们可能提供广泛的功能,但它们缺乏针对特定诊所或患者群体的特定需求进行微调的灵活性。另一方面,开源 AI 模型可以使用诊所自己的患者数据进行定制。这允许创建更准确且与特定临床环境相关的 AI 模型。
支持、集成和技术专长: 专有 AI 模型通常具有专门的客户支持和与现有电子健康记录 (EHR) 系统的简化集成的优势。这可以简化实施过程并提供持续的帮助。然而,开源模型需要内部技术专长来设置、维护和排除故障。考虑开源 AI 的诊所必须评估其内部能力,或准备投资外部支持。
成本考虑: 虽然开源软件可以免费下载,但必须考虑总成本。必须权衡内部支持、维护和潜在外部支持的费用与专有 AI 的订阅成本。
AI辅助医疗的范式转变
该研究的资深作者、哈佛医学院生物医学信息学助理教授 Arjun Manrai 博士强调了这一发展的重要性。“据我们所知,这是开源 AI 模型首次在如此具有挑战性的病例上与 GPT-4 的性能相匹配,正如医生评估的那样,”Manrai 说。“Llama 模型如此迅速地赶上了领先的专有模型,这真是令人震惊。患者、护理提供者和医院都将从这场竞争中受益。”
这项研究强调了医疗机构和私人诊所探索开源 AI 替代方案的日益增长的机会。这些替代方案在诊断准确性、数据安全性和定制能力之间提供了令人信服的平衡。虽然专有模型继续提供便利性和现成的支持,但高性能开源 AI 的兴起有可能在未来几年重塑 AI 辅助医疗的格局。
AI作为“副驾驶”,而不是替代品
至关重要的是要强调,在这个阶段,AI 应该被视为协助医生的有价值的“副驾驶”,而不是取代他们的临床判断和专业知识。AI 工具,当负责任地、周到地集成到现有的医疗保健基础设施中时,可以作为忙碌的临床医生的宝贵助手。它们可以提高诊断的准确性和速度,最终改善患者护理。
研究人员强调了医生参与推动 AI 在医疗保健领域的采用和发展的重要性。医生必须在确保 AI 工具的设计和实施方式符合他们的需求并支持他们的临床工作流程方面发挥核心作用。医学中 AI 的未来不是取代医生,而是为他们提供强大的工具来增强他们的能力并改善患者的生活。开源模型的持续进步只会对医学领域有利,并鼓励寻求保持对其患者数据控制权的医生更多地采用。