開源AI之辯:Meta的途徑與真正的開放

Meta 支持的報告:開源 AI 的正面展望

Linux 基金會進行了這項研究,審查了學術和產業文獻以及經驗數據。研究結果表明,開源AI 系統(其模型和程式碼公開可用於使用或修改)對企業具有積極影響。

哈佛大學的研究表明,如果公司無法使用開源軟體,則支出將增加約 3.5 倍。在 AI 領域,大約三分之二的組織發現部署開源 AI 比專有模型更便宜,將近一半的組織將成本節省作為選擇的主要原因。這種成本效益已導致廣泛採用,89% 的採用 AI 的公司在某種程度上使用了開源 AI。

Linux 基金會的研究作者 Anna Hermansen 和 Cailean Osborne 認為,使 AI 模型開源可以鼓勵改進,從而提高它們對企業的有用性。他們引用了 PyTorch(一個從 Meta 的單方面治理轉變為 Linux 基金會下開源治理的 AI 框架)作為案例研究。他們發現,雖然 Meta 的貢獻減少了,但晶片製造商等外部公司的貢獻增加了,而 PyTorch 使用者群體的貢獻保持不變。這表明開放原始碼模型「促進了更廣泛的參與和更多的貢獻」。

開源模型被認為更具可客製化性,這是製造業的一個顯著優勢。該研究聲稱,它們在醫療保健等領域的表現與專有模型相當,從而可以在不影響品質的情況下節省成本。

Meta 打算透過這項研究強調開源 AI 的好處,從而推廣其開源 Llama 模型。AI 產業競爭激烈,主導開源領域可以將 Meta 定位為值得信賴的品牌,為在其他領域取得領導地位鋪平道路。

爭議:定義「開源」

然而,Meta 對開源 AI 的理解受到了挑戰。Linux 報告依賴於 Generative AI Commons 的 Model Openness Framework 提供的廣泛定義,僅要求在允許使用、修改和分發的許可下發布機器學習模型的架構、參數和文檔。

開放原始碼促進會 (OSI) 提供了更明確的定義。它規定,無論出於何種目的,使用者都可以使用該系統,而無需尋求許可,了解其功能方式,修改它,並在進行或不進行修改的情況下共享它。

這些原則必須適用於模型的原始碼、參數和權重,以及關於其訓練數據的全面數據。雖然發布訓練數據本身不是強制性的,但提供足夠的信息對於讓有技能的人開發具有實質等效性的系統至關重要。

2023 年,開放原始碼促進會表示,Llama 2 對某些使用者的商業限制以及對模型使用方式的限制使其「脫離了『開源』的範疇」,儘管 Meta 聲稱如此。他們在 Llama 3 發布時重申了這一立場,指出存在更大的限制,例如拒絕歐盟使用者訪問。

Thoughtworks 的 CTO Scott Shaw 表示,Llama 3 使用者無法檢查其原始碼,沒有不受限制的重新分發權,並且必須為某些用途支付許可費,所有這些都與開放原始碼促進會的定義相矛盾。爭議擴展到 Llama 4,Meta 要求每月活躍使用者超過 7 億的商業實體在使用模型之前尋求明確許可。

Shaw 在 2024 年澄清說,雖然 Meta 可能誠實地將其描述為公開可用的模型,但術語「開源」通常被寬鬆地應用,重要的是要認識到公開可用或免費並不一定意味著開源。這種區別經常被忽視,人們可能沒有完全理解特定模型的所有權程度。

解碼 AI 領域中「開放」的細微差別

問題的核心在於「開放」的定義。在快速發展的 AI 世界中,術語「開源」的使用越來越寬鬆,導致混亂和潛在的誤導性聲明。雖然 Meta 聲稱其 Llama 模型具有開放性,但來自開源社群的審查揭示了與開放原始碼促進會的嚴格標準相比,存在關鍵差異。

分歧源於授予使用者的自由程度。根據 OSI 的說法,真正的開源賦予使用者不受限制的權利,可以出於任何目的使用、研究、修改和分發軟體。這包括訪問原始碼,允許開發人員了解軟體的內部工作原理並根據自己的需求進行客製化。

Meta 的 Llama 模型雖然可以免費使用,但存在某些限制。對商業用途的限制(尤其是對大型企業的限制)以及對重新分發或修改的限制,引起了人們對它們是否真正符合傳統定義下的開源資格的擔憂。

這場辯論意義重大,因為它影響了 AI 社群開發和傳播新工具和技術的方式。當模型真正成為開源時,它們會促進協作、創新和可訪問性。任何人都可以為專案做出貢獻、將其應用於特定應用程式,並與社群分享他們的增強功能。這將導致更快的進展和更廣泛的採用。

然而,當開放性受到限制(無論是商業限制還是不明確的許可條件)時,創新的潛力就會降低。如果開發人員不確定他們是否可以自由使用或調整模型,則可能會猶豫是否投入時間和資源。

對企業和 AI 未來的影響

圍繞開源 AI 的模糊性對企業產生了重大影響。決定是否採用開源模型的組織需要了解不同許可證和限制的細微差別。雖然像 Llama 這樣的模型由於其可用性和效能可能看起來很有吸引力,但企業應考慮依賴具有限制的模型的長期影響。

對於較小的公司或研究機構來說,這些限制可能可以忽略不計。但是,大型企業應注意確保合規性,並在投資這些模型之前了解自己的權利。選擇真正的開源技術可提供更大的靈活性、控制和長期永續性。

除了對合規性的擔憂之外,還存在對 AI 生態系統的長期影響的問題。如果組織優先考慮開放性有限的模型,則可能會扼殺開放協作、減緩創新速度,並在公司和獨立開發人員之間造成鴻溝。透過支持促進真正開放標準的倡議和專案,AI 社群可以培養一個協作和包容的環境,使每個人都受益。

此外,圍繞開源 AI 的爭議提出了關於透明度和可靠性的問題。開放原始碼使能夠進行獨立稽核和驗證。這意味著開發人員可以檢查漏洞、偏見和其他潛在問題,並快速修復它們。當軟體是專有的或受到限制時,這種程度的審查可能是不可能的。這會增加不可預見後果的風險並阻礙公眾信任。

駕馭 AI 開放性的發展態勢

隨著 AI 的不斷發展,開發人員、研究人員和企業領導者需要參與到圍繞開源定義的討論中。正在進行的關於 Meta Llama 模型開源性質的爭論凸顯了澄清術語、宣傳明確的許可實踐以及鼓勵透明度的重要性。

在開放式創新和商業現實之間找到平衡仍然是關鍵。雖然有些人認為嚴格的開源標準可能會阻礙開發,但另一些人則強調維護開放和協作原則的重要性,這些原則是許多技術進步的基礎。

開源模型持續在人工智慧領域獲得關注,提供透明度、修改自由和易於使用等優勢。該研究表明,開源AI 的成本效益和客製化性提高了公司採用率,從而節省了財務成本並有所改進。

Meta 的 Llama 3 與開放原始碼促進會 (OSI) 設定的標準之間的差異導致人們質疑 Llama 3 是否符合「開源」的實際定義。OSI 強調原始碼可用性的重要性,允許重新分發和任何使用。Meta 為 Llama 3 製定的限制導致人們對該版本是否可以被視為開源產生爭議。

此次討論強調了了解 AI 開放性細微差別的重要性。開發人員和組織需要精確衡量使用 AI 模型的條款、條件和影響,以保證法規遵從性並維持團隊內的創新。

開源 AI 的興起為創新和可訪問性提供了新途徑,但正如圍繞 Llama 模型的爭論所證實的那樣,挑戰和矛盾需要解決,才能成功駕馭 AI 世界。鼓勵負責且開放的 AI 實踐可以促進社群內的合作,使每個人都能從中受益,同時防範潛在的陷阱。

開源的優點

開源 AI 讓開發人員、研究人員和組織採用推動創新的開源技術。開源 AI 由於不受限制的訪問,促進了成本節省、客製化機會和更廣泛的協作。這種靈活性允許 AI 在許多不同的環境中使用。

成本是一個重要因素。AI 模型透過讓開發人員使用和修改現有技術來節省開發成本。客製化開源 AI 的能力讓組織可以調整其技術以滿足特定需求,從而產生創新和效率。

訪問進一步鼓勵開發人員、研究人員和組織之間的協作,鼓勵知識共享。他們共同改進 AI、解決挑戰並在全球社群中創建解決方案。開源 AI 讓更多企業可以訪問尖端技術,從而提供優勢並加速 AI 解決方案在不同領域的傳播。

透明度源於開源 AI,讓每個人都可以檢查程式碼、演算法和功能。這有助於發現錯誤、偏見和安全風險,從而提高信任和責任感。開源開發了一種社群環境,在這種環境中,持續改進可以提高品質。

挑戰

企業越來越意識到這些新技術,並且需要隨時了解潛在的挑戰。AI 快速發展的領域需要在實施過程中進行仔細的思考和分析。

法規遵從仍然是一個問題。複雜的許可協議需要仔細分析,以確保所有使用都符合各種開源的規則。安全性是另一個大問題,因為包括那些懷有危險意圖的人在內的任何人都可以 Zugriff 開源。因此,實施嚴密的管理和健全的安全措施對於防範漏洞非常重要。

組織在使用開源 AI 時,通常依賴社群支持來獲取更新和解決問題。響應時間和可靠性可能取決於社群。在使用開源之前,必須評估社群支持和專案可行性。使用開源 AI 需要仔細考慮,才能在降低風險的同時獲得其優勢。

駕馭這種局面取決於了解模型之間的差異,並評估開放原始碼方法是否與企業目標一致。為了提高誠信和信心,公開性、責任感和負責地使用 AI 對於促進發展至關重要。

未來展望

隨著 AI 變得越來越普遍,了解開源的概念變得越來越重要。未來取決於制定明確、誠實的準則,同時促進社群參與。開源的協作力量可以得到充分發揮,使公共領域的創新成為可能。組織需要擁抱問責制、透明度和合作,以促進永續的 AI 開發和社會責任。