开源AI之争:Meta的策略与真正的开放性

Meta支持的报告:开源AI的积极前景

Linux Foundation 受 Meta 委托进行了一项研究,该研究回顾了学术和行业文献以及经验数据。 研究结果表明,开源 artificial intelligence (AI) 系统(其模型和代码公开可用,可供使用或修改)对企业具有积极影响。

哈佛大学的研究表明,如果无法使用开源软件,公司将花费大约 3.5 倍以上的资金。 在 AI 领域,大约三分之二的组织发现部署开源 AI 比专有模型更便宜,近一半的组织认为节省成本是他们选择的主要原因。 这种成本效益导致了广泛采用,89% 的采用人 AI 的公司在某种程度上使用开源 AI。

The Linux Foundation 的研究作者 Anna Hermansen 和 Cailean Osborne 认为,使 AI 模型开源鼓励改进,从而提高它们对企业的实用性。 他们以 PyTorch 为例,这是一个 AI 框架,它从 Meta 的单方面治理转变为 Linux Foundation 下的开放式治理。 他们发现,虽然 Meta 的贡献有所减少,但芯片制造商等外部公司的贡献有所增加,而 PyTorch 用户群的贡献保持不变。 这表明开源模型“促进了更广泛的参与和更多的贡献”。

开源模型被认为更具可定制性,这是制造业中的一个显着优势。 该研究声称,它们的性能与医疗保健等领域的专有模型相当,从而在不影响质量的情况下节省了成本。

Meta 打算通过这项研究强调开源 AI 的好处,从而推广其开源 Llama 模型。The AI 行业竞争非常激烈,主导开源领域可以将 Meta 定位为一个值得信赖的品牌,从而为在其他领域取得领导地位铺平道路。

争议:“开源”的定义

然而,Meta 对开源 AI 的理解受到了挑战。 Linux 的报告依赖于 Generative AI Commons 的 Model Openness Framework 提供的广泛定义,该框架仅要求根据允许使用、修改和分发的宽松许可发布机器学习模型的架构、参数和文档。

The Open Source Initiative (OSI) 提供了更具体的定义。 它规定,出于任何目的,用户都可以使用该系统而无需寻求许可,了解其工作原理,对其进行修改,并共享它(无论是否经过修改)。

这些原则必须适用于模型的源代码、参数和权重,以及有关其训练数据的综合数据。 虽然发布训练数据本身不是强制性的,但提供足够的信息对于使有技能的人能够开发出具有实质等效性的系统至关重要。

2023 年,The Open Source Initiative 声明,Llama 2 对某些用户的商业限制以及对其模型使用方式的限制使其“脱离了"开源"的范畴”,尽管 Meta 提出了断言。 他们在发布 Llama 3 时重申了这一立场,指出存在更大的限制,例如拒绝欧盟用户访问。

Thoughtworks 首席技术官 Scott Shaw 表示,Llama 3 用户无法检查其源代码,没有不受限制的重新分发,并且必须为某些用途支付许可费,所有这些都与 The Open Source Initiative 的定义相矛盾。 争议蔓延到 Llama 4,Meta 要求拥有超过 7 亿月活跃用户的商业实体在使用该模型之前寻求明确的许可。

Shaw 在 2024 年澄清说,虽然 Meta 可能会真诚地将其描述为一种公开可用的模型,但术语“开源”通常被松散地应用,重要的是要认识到公开可用或免费并不意味着它本质上是开源的。 这种区别经常被忽视,人们可能没有完全理解特定模型所具有的开放程度。

解码 AI 领域中“开放”的细微差别

问题的核心在于“开放”的定义。 在快速发展的 AI 世界中,术语“开源”的使用越来越松散,导致了混淆,并可能导致误导性声明。 虽然Meta 断言其 Llama 模型的开放性,但来自开源社区的审查揭示了与Open Source Initiative 的严格标准相比存在的关键差异。

分歧源于赋予用户的自由程度。 根据 OSI 的说法,真正的开源赋予用户不受限制的权利,可以出于任何目的使用、研究、修改和分发软件。 这包括访问源代码,从而使开发人员能够了解软件的内部工作原理并根据自己的需求进行自定义。

Meta 的 Llama 模型虽然可以免费获得,但施加了某些限制。 对商业用途的限制(尤其是对大型企业)以及对重新分发或修改的限制引起了人们的担忧,即它们是否真正符合传统定义下的开源。

这场辩论意义重大,因为它影响了 AI 社区如何开发和传播新工具和技术。 当模型是真正开源时,它们会促进协作、创新和可访问性。 任何人都可以为项目做出贡献,将其适应特定的应用程序,并与社区分享他们的增强功能。 这导致了更快的进步和更广泛的采用。

但是,当开放受到限制时(无论是通过商业限制还是不明确的许可条件),创新的潜力就会降低。 如果开发人员不确定他们是否可以自由使用或改编某个模型,他们可能会犹豫是否投入时间和资源。

对企业的影响和 AI 的未来

围绕开源 AI 的模糊性对企业具有重大影响。 决定是否采用开源模型的组织需要了解不同许可证和限制的细微差别。 虽然像 Llama 这样的模型可能由于其可用性和性能而看起来很有吸引力,但企业应考虑依赖具有限制的模型可能产生的长期影响。

对于小型公司或研究机构而言,这些限制可能微不足道。 但是,较大的企业应注意确保合规性,并在投资这些模型之前了解其权利。 选择真正开源的技术可提供更大的灵活性、控制能力和长期可持续性。

除了对合规性的担忧之外,还存在对 AI 生态系统长期影响的问题。 如果组织优先考虑开放性有限的模型,则可能会扼杀开放式协作,降低创新速度,并在公司和独立开发人员之间造成差距。 通过支持促进真正开放标准的举措和项目,AI 社区可以培养一个协作和包容的环境,让每个人都受益。

此外,围绕开源 AI 的争议引发了有关透明度和可靠性的问题。 开源代码可以进行独立审计和验证。 这意味着开发人员可以检查漏洞、偏差和其他潜在问题并快速修复它们。 当软件是专有的或受到限制时,这种程度的审查可能是不可能的。 这可能会增加意外后果的风险并阻碍公众信任。

驾驭不断发展的 AI 开放领域

随着 AI 的不断发展,开发人员、研究人员和商业领袖需要参与有关开源定义的讨论。 关于 Meta 的 Llama 模型的开源性质的持续辩论凸显了澄清术语、推广明确的许可实践以及鼓励透明度的重要性。

在开放式创新和商业现实之间找到平衡仍然是关键。 虽然有些人认为严格的开源标准可能会阻碍开发,但另一些人则强调维护开放和协作原则的重要性,这些原则是许多技术进步的基础。

开源模型继续在人工智能领域获得关注,提供透明度、修改自由和易用性等好处。该研究表明,开源 AI 的成本效益和定制化推动了企业采用,从而节省了资金并有所改进。

Meta 的 Llama 3 与 Open Source Initiative (OSI) 设定的标准之间的差异导致人们质疑 Llama 3 是否符合“开源”的实际定义。OSI 强调源代码可用性的重要性,允许重新分发和任何用途。Meta 对 Llama 3 施加的限制导致了关于该版本是否可以被视为开源存在分歧。

讨论突出了了解 AI 开放性的细微之处的重要性。 开发人员和组织需要精确地衡量使用 AI 模型的条款、条件和影响,以保证法规的合规性并维持团队内的创新。

开源 AI 的兴起为创新和可访问性提供了新的途径,但是,正如围绕 Llama 模型的争论所证明的那样,需要解决挑战和矛盾,才能成功驾驭 AI 世界。 鼓励负责任和开放的 AI 实践能够促进整个社区的合作,使每个人都能受益,同时注意避免风险。

开源的好处

开源 AI 让开发人员、研究人员和组织采用能够推动创新的开源技术。由于不受限制的访问,开源 AI 促进了成本节约、定制机会和更广泛的协作。其灵活性使 AI 可以在许多不同的环境中使用。

成本是一个重要因素。通过让开发人员使用和修改现有技术,AI 模型节省了开发成本。定制开源 AI 的能力使组织能够调整其技术以满足特定需求,从而产生创新和效率。

访问进一步鼓励了开发人员、研究人员和组织之间的协作,从而鼓励知识共享。他们共同改进 AI、解决挑战并在全球社区中创造解决方案。开源 AI 让更多企业可以访问尖端技术,提供优势并加速 AI 解决方案在不同领域的传播。

透明度源于开源 AI,让每个人都可以检查代码、算法和功能。这有助于发现错误、偏差和安全风险,从而提高信任和责任感。开源开发了一种社区环境,持续改进可以提高质量。

挑战

企业越来越意识到这些新技术,并且需要继续了解潜在的挑战。AI 快速发展的领域需要在实施过程中进行仔细的思考和分析。

遵守法规仍然是一个问题。复杂的许可协议需要仔细分析,以确保所有使用都符合各种开源规则。安全性是另一个大问题,因为任何人(包括那些怀有危险意图的人)都可以访问开源。因此,需要进行严格的管理和强大的安全措施,以防止出现漏洞。

组织在使用开源 AI 时,通常依靠社区支持来获得更新和解决问题。响应时间和可靠性可能取决于社区。在使用开源之前,必须评估社区支持和项目可行性。使用开源 AI 需要仔细考虑,以获得其好处,同时降低风险。

驾驭这一领域依赖于了解模型之间的差异,并评估开源方法是否符合业务目标。为了促进诚信和信心,开放、责任和负责任地使用的 AI 对于促进至关重要。

未来展望

随着 AI 日益普及,理解开源概念变得更加重要。未来取决于制定清晰、诚实的指导方针,同时促进社区参与。开源的协作力量可以充分发挥,从而使创新为公众所用。组织需要拥抱责任、透明度和合作,以促进可持续的 AI 发展和社会责任。