AMD 透過 GAIA 專案為裝置端 AI 開創新局

人工智慧的版圖正在經歷一場重大的轉變。多年來,複雜 AI 模型,特別是大型語言模型 (LLMs),其龐大的運算需求使其運作主要受限於藏身在大型資料中心內、功能強大且耗能的伺服器。存取方式通常涉及透過網際網路發送查詢,並等待遠端處理後的回應。然而,在處理器技術進步以及對資料隱私和延遲日益增長的擔憂驅動下,一股朝向本地化運算的引人注目轉變正逐漸 набирає обертів。半導體領域的強勁參與者 Advanced Micro Devices (AMD) 正積極擁抱此趨勢,尋求賦予使用者直接在其個人電腦上駕馭生成式 AI 能力的力量。該公司在此領域的最新倡議是一個開源專案,其名稱饒富趣味地命名為 GAIA,是 ‘Generative AI Is Awesome’ 的縮寫。

開創本地化 AI 處理的新紀元

在本地端運行生成式 AI 模型的吸引力是多方面的。首先,它解決了日益增長的隱私顧慮。當資料在使用者的自有裝置上處理時,便消除了將潛在敏感資訊傳輸至第三方伺服器的需求,提供了一種本質上更安全的運作模式。其次,本地執行可以顯著降低延遲;當運算重擔在距離使用者介面僅數毫米之遙的地方進行,而非可能橫跨數大洲傳輸時,輸入與輸出之間的延遲得以最小化。第三,它使存取民主化。雖然雲端 AI 通常涉及訂閱費用或使用限制,但裝置端處理利用了使用者已擁有的硬體,潛在地降低了實驗和使用 AI 工具的門檻。

體認到此潛力,AMD 一直策略性地將專為 AI 工作負載設計的特製處理核心整合到其處理器架構中。這些努力的結晶體現在其最新的 Ryzen AI 300 系列處理器中,該系列處理器配備了增強的神經處理單元 (Neural Processing Units, NPUs)。這些 NPUs 經過精心設計,用以處理機器學習任務中常見的特定類型數學運算,與傳統 CPU 核心相比,其處理速度和功耗效率都顯著提高。正是這種專用硬體,AMD 旨在透過其 GAIA 專案為主流使用者解鎖。AMD 的 AI 開發者賦能經理 Victoria Godsoe 強調了此目標,表示 GAIA「利用 Ryzen AI 神經處理單元 (NPU) 的力量來運行私密且本地的大型語言模型 (LLMs)。」她進一步強調了其優點:「這種整合可實現更快、更有效率的處理——即更低的功耗——同時確保您的資料保持本地化和安全。」

介紹 GAIA:簡化裝置端 LLM 部署

GAIA 作為 AMD 對以下問題的回應而出現:使用者如何能輕易地利用其搭載 Ryzen AI 的新機器的 NPU 功能來運行複雜的 AI 模型?GAIA 以開源應用程式的形式呈現,提供了一個簡化的介面,專為在配備最新 AMD 硬體的 Windows PC 上直接部署和互動小型 LLMs 而量身打造。該專案有意識地建立在現有的開源框架之上,特別引用了 Lemonade 作為基礎,展現了在更廣泛的開發社群內的協作精神。

GAIA 的核心功能是抽象化了通常與設定和運行 LLMs 相關的大部分複雜性。使用者面對的是一個更易於使用的環境,該環境從頭開始針對 AMD 的 Ryzen AI 架構進行了優化。這種優化至關重要;它確保軟體有效地利用 NPU,最大化效能並最小化能源足跡。雖然主要目標是具有強大 NPU 的 Ryzen AI 300 系列,但 AMD 並未完全排除使用較舊或不同硬體配置的使用者。

該專案支援流行且相對精簡的 LLM 家族,包括基於廣泛使用的 Llama 和 Phi 架構的模型。這些模型雖然規模可能不及 GPT-4 等巨頭,但對於各種裝置端任務而言,其能力令人矚目。AMD 建議的潛在用例範圍從能夠進行自然對話的互動式聊天機器人到更複雜的推理任務,展示了為 GAIA 驅動的本地 AI 所設想的多功能性。

探索 GAIA 的能力:代理程式與混合動力

為了展示實際應用並使技術立即派上用場,GAIA 隨附了一系列預先定義的「代理程式 (agents)」,每個代理程式都針對特定功能進行了調整:

  • Chaty: 顧名思義,此代理程式提供對話式 AI 體驗,作為一般互動和對話的聊天機器人。它利用底層 LLM 生成類人文本回應的能力。
  • Clip: 此代理程式專注於問答任務。值得注意的是,它整合了檢索增強生成 (Retrieval-Augmented Generation, RAG) 功能,使其能夠潛在地從外部來源(如 YouTube 文字記錄)擷取資訊,以提供更具資訊性或上下文相關性的答案。此 RAG 功能顯著增強了代理程式超出 LLM 初始訓練資料的知識庫。
  • Joker: 另一個基於 RAG 的代理程式,Joker 專為幽默而設計,任務是生成笑話。這展示了本地 LLMs 在專業化、創意應用方面的潛力。
  • Simple Prompt Completion: 這提供了與基礎 LLM 更直接的連接,允許使用者輸入提示並接收直接的完成內容,而無需其他代理程式的對話或特定任務層。它作為直接模型互動的基本介面。

這些代理程式的執行,特別是模型生成回應的推論 (inference) 過程,主要由相容的 Ryzen AI 300 系列晶片上的 NPU 處理。這確保了高效、低功耗的操作。然而,AMD 還為某些支援的模型整合了一種更先進的「混合 (hybrid)」模式。這種創新方法動態地將處理器的整合圖形處理單元 (iGPU) 與 NPU 一起啟用。透過利用 iGPU 的平行處理能力,這種混合模式可以為要求嚴苛的 AI 任務提供顯著的效能提升,為使用者提供一種超越單獨 NPU 所能達到的加速推論方式。

認識到硬體環境的多樣性,AMD 也提供了一個備用選項。存在一個僅依賴 CPU 核心進行運算的 GAIA 變體。雖然比 NPU 或混合模式慢得多且功耗效率較低,但這個僅限 CPU 的版本確保了更廣泛的可及性,允許沒有最新 Ryzen AI 硬體的使用者也能體驗 GAIA,儘管效能會有所降低。

策略定位與開源優勢

GAIA 的推出可以放在更廣泛的競爭性半導體市場背景下看待,特別是在 AI 加速方面。在相當長的一段時間裡,NVIDIA 在 AI 領域享有主導地位,這主要歸功於其強大的 GPU 和成熟的 CUDA (Compute Unified Device Architecture) 軟體生態系統,後者已成為高效能機器學習的事實標準。在消費級硬體上高效運行較大模型,通常會引導開發者和愛好者轉向 NVIDIA 的產品。

AMD 的 GAIA 倡議,加上 Ryzen AI 晶片中的專用 NPU 硬體,代表了挑戰此主導地位的策略性舉措,尤其是在筆記型電腦和桌上型電腦上裝置端 AI 的新興市場中。透過提供易於使用、優化且開源的工具,AMD 旨在圍繞其自身的 AI 硬體能力建立一個生態系統,使 Ryzen AI 平台對有興趣進行本地 AI 執行的開發者和終端使用者更具吸引力。對 NPU 優化的明確關注使其與以 GPU 為中心的方法區分開來,並突顯了專用神經處理器在特定 AI 任務上固有的功耗效率優勢。

決定在寬鬆的 MIT 開源授權下發布 GAIA 也具有重要的策略意義。它邀請全球開發者社群進行協作和貢獻。這種方法可以加速專案的開發,促成新功能和模型的整合,並培養一個投入於 AMD AI 平台的社群。AMD 明確歡迎針對錯誤修復和功能增強的拉取請求 (pull requests),表明了透過集體努力發展 GAIA 的承諾。開源降低了開發者實驗、整合以及可能在 GAIA 框架之上建立商業應用的門檻,進一步刺激了圍繞 Ryzen AI 的生態系統。

雖然目前的版本側重於適合裝置端執行的小型 LLMs,但 GAIA 奠定的基礎可能為隨著 NPU 技術的持續進步而支援更複雜的模型和應用鋪平道路。它代表了 AMD 明確的意圖:成為個人化、本地化人工智慧時代的主要力量,提供必要的硬體和易於使用的軟體工具,將 AI 能力安全、高效地直接帶到使用者手中。「Generative AI Is Awesome」這個名稱,雖然可能不那麼正式,卻突顯了該公司在這個快速發展的技術前沿的熱情和雄心。