AMD, Project GAIA로 온디바이스 AI 새 길 개척

인공지능 환경은 중대한 변화를 겪고 있습니다. 수년간 정교한 AI 모델, 특히 대규모 언어 모델(LLM)의 막대한 연산 요구량 때문에 이들의 작동은 주로 거대한 데이터 센터에 숨겨진 강력하고 에너지 집약적인 서버에 묶여 있었습니다. 접근은 일반적으로 인터넷을 통해 쿼리를 보내고 원격으로 처리된 응답을 기다리는 방식으로 이루어졌습니다. 그러나 프로세서 기술의 발전과 데이터 프라이버시 및 지연 시간에 대한 우려 증가에 힘입어 로컬 연산으로의 강력한 전환이 추진력을 얻고 있습니다. 반도체 분야의 강력한 주자인 Advanced Micro Devices (AMD)는 이러한 추세를 적극적으로 수용하며, 사용자가 개인용 컴퓨터에서 직접 생성형 AI의 기능을 활용할 수 있도록 지원하고자 합니다. 이 분야에서 회사의 최신 이니셔티브는 ‘Generative AI Is Awesome’의 약자인 GAIA라는 흥미로운 이름의 오픈소스 프로젝트입니다.

로컬 AI 처리 시대의 개막

생성형 AI 모델을 로컬에서 실행하는 것의 매력은 다면적입니다. 첫째, 증가하는 프라이버시 우려를 해결합니다. 데이터가 사용자 자신의 장치에서 처리될 때, 잠재적으로 민감한 정보를 제3자 서버로 전송할 필요가 없어 본질적으로 더 안전한 운영 패러다임을 제공합니다. 둘째, 로컬 실행은 지연 시간을 크게 줄일 수 있습니다. 연산 집약적인 작업이 사용자 인터페이스에서 불과 몇 밀리미터 떨어진 곳에서 발생할 때 입력과 출력 사이의 지연이 최소화되며, 잠재적으로 대륙을 횡단할 필요가 없습니다. 셋째, 접근성을 민주화합니다. 클라우드 기반 AI는 종종 구독료나 사용량 제한을 수반하지만, 온디바이스 처리는 사용자가 이미 소유한 하드웨어를 활용하므로 AI 도구를 실험하고 활용하는 데 대한 진입 장벽을 낮출 수 있습니다.

이러한 잠재력을 인식한 AMD는 AI 워크로드를 위해 명시적으로 설계된 특수 처리 코어를 자사의 프로세서 아키텍처에 전략적으로 통합해 왔습니다. 이러한 노력의 정점은 향상된 신경 처리 장치(NPU)를 특징으로 하는 최신 Ryzen AI 300 시리즈 프로세서에서 분명하게 드러납니다. 이 NPU는 머신러닝 작업에서 널리 사용되는 특정 유형의 수학 연산을 처리하도록 설계되었으며, 기존 CPU 코어에 비해 속도와 전력 소비 측면 모두에서 훨씬 더 높은 효율성을 제공합니다. AMD가 GAIA 프로젝트를 통해 일반 사용자에게 개방하고자 하는 것이 바로 이 전용 하드웨어입니다. AMD의 AI 개발자 지원 관리자인 Victoria Godsoe는 GAIA가 ‘Ryzen AI 신경 처리 장치(NPU)의 성능을 활용하여 프라이빗하고 로컬한 대규모 언어 모델(LLM)을 실행한다’고 강조하며 이 목표를 설명했습니다. 그녀는 또한 ‘이 통합은 데이터를 로컬에 안전하게 유지하면서 더 빠르고 효율적인 처리(즉, 낮은 전력 소비)를 가능하게 한다’며 이점을 강조했습니다.

GAIA 소개: 온디바이스 LLM 배포 간소화

GAIA는 ‘사용자가 새로운 Ryzen AI 기반 기기의 NPU 기능을 어떻게 쉽게 활용하여 정교한 AI 모델을 실행할 수 있는가?’라는 질문에 대한 AMD의 답변으로 등장합니다. 오픈소스 애플리케이션으로 제공되는 GAIA는 최신 AMD 하드웨어가 장착된 Windows PC에서 직접 소규모 LLM을 배포하고 상호 작용하기 위해 특별히 맞춤화된 간소화된 인터페이스를 제공합니다. 이 프로젝트는 의식적으로 기존 오픈소스 프레임워크를 기반으로 구축되었으며, 특히 Lemonade를 기반으로 언급하며 광범위한 개발 커뮤니티 내에서의 협력 정신을 보여줍니다.

GAIA의 핵심 기능은 일반적으로 LLM 설정 및 실행과 관련된 복잡성의 상당 부분을 추상화하는 것입니다. 사용자에게는 AMD의 Ryzen AI 아키텍처에 맞춰 처음부터 최적화된 보다 접근하기 쉬운 환경이 제공됩니다. 이 최적화는 중요합니다. 소프트웨어가 NPU를 효과적으로 활용하여 성능을 극대화하고 에너지 발자국을 최소화하도록 보장합니다. 주요 대상은 강력한 NPU를 갖춘 Ryzen AI 300 시리즈이지만, AMD는 구형 또는 다른 하드웨어 구성을 사용하는 사용자를 완전히 배제하지는 않았습니다.

이 프로젝트는 널리 접근 가능한 Llama 및 Phi 아키텍처 기반 모델을 포함하여 인기 있고 상대적으로 컴팩트한 LLM 제품군을 지원합니다. 이러한 모델은 GPT-4와 같은 거대 모델의 규모를 갖추지는 못했을 수 있지만, 다양한 온디바이스 작업에 놀랍도록 유능합니다. AMD는 자연스러운 대화가 가능한 대화형 챗봇부터 더 복잡한 추론 과제에 이르기까지 잠재적인 사용 사례를 제안하며, GAIA 기반 로컬 AI에 대해 구상된 다재다능함을 보여줍니다.

GAIA의 기능 탐색: 에이전트와 하이브리드 파워

실용적인 응용 프로그램을 선보이고 기술을 즉시 유용하게 만들기 위해 GAIA는 각각 특정 기능을 위해 맞춤화된 사전 정의된 ‘에이전트’ 선택 항목과 함께 제공됩니다.

  • Chaty: 이름에서 알 수 있듯이 이 에이전트는 일반적인 상호 작용 및 대화를 위한 챗봇 역할을 하는 대화형 AI 경험을 제공합니다. 인간과 유사한 텍스트 응답을 생성하는 기본 LLM의 능력을 활용합니다.
  • Clip: 이 에이전트는 질의응답 작업에 중점을 둡니다. 특히, 검색 증강 생성(RAG) 기능을 통합하여 YouTube 스크립트와 같은 외부 소스에서 정보를 가져와 더 많은 정보나 문맥적으로 관련된 답변을 제공할 수 있습니다. 이 RAG 기능은 LLM의 초기 훈련 데이터를 넘어서 에이전트의 지식 기반을 크게 향상시킵니다.
  • Joker: 또 다른 RAG 기반 에이전트인 Joker는 유머를 위해 특별히 설계되었으며 농담 생성을 담당합니다. 이는 로컬 LLM의 전문화되고 창의적인 응용 프로그램의 잠재력을 보여줍니다.
  • Simple Prompt Completion: 이는 기본 LLM에 대한 보다 직접적인 경로를 제공하여 사용자가 프롬프트를 입력하고 다른 에이전트의 대화형 또는 작업별 계층 없이 간단한 완성을 받을 수 있도록 합니다. 직접적인 모델 상호 작용을 위한 기본 인터페이스 역할을 합니다.

이러한 에이전트의 실행, 특히 모델이 응답을 생성하는 추론 프로세스는 호환되는 Ryzen AI 300 시리즈 칩의 NPU에서 주로 처리됩니다. 이는 효율적이고 저전력 작동을 보장합니다. 그러나 AMD는 특정 지원 모델에 대해 더 진보된 ‘하이브리드’ 모드도 통합했습니다. 이 혁신적인 접근 방식은 프로세서의 통합 그래픽 처리 장치(iGPU)를 NPU와 함께 동적으로 사용합니다. iGPU의 병렬 처리 능력을 활용하여 이 하이브리드 모드는 까다로운 AI 작업에 상당한 성능 향상을 제공할 수 있으며, 사용자에게 NPU 단독으로 달성할 수 있는 것 이상의 추론 가속화 방법을 제공합니다.

다양한 하드웨어 환경을 인식하여 AMD는 대체 옵션도 제공합니다. 연산을 위해 CPU 코어에만 의존하는 GAIA 변형이 존재합니다. NPU 또는 하이브리드 모드보다 훨씬 느리고 전력 효율이 낮지만, 이 CPU 전용 버전은 더 넓은 접근성을 보장하여 최신 Ryzen AI 하드웨어가 없는 사용자도 성능 저하를 감수하고 GAIA를 실험할 수 있도록 합니다.

전략적 포지셔닝과 오픈소스의 이점

GAIA의 출시는 경쟁적인 반도체 시장, 특히 AI 가속화와 관련된 더 넓은 맥락에서 볼 수 있습니다. 상당 기간 동안 NVIDIA는 강력한 GPU와 고성능 머신러닝의 사실상 표준이 된 성숙한 CUDA (Compute Unified Device Architecture) 소프트웨어 생태계 덕분에 AI 분야에서 지배적인 위치를 누려왔습니다. 소비자 하드웨어에서 더 큰 모델을 효율적으로 실행하는 것은 종종 개발자와 애호가들을 NVIDIA의 제품으로 이끌었습니다.

AMD의 GAIA 이니셔티브는 Ryzen AI 칩의 전용 NPU 하드웨어와 결합하여 특히 노트북 및 데스크톱의 온디바이스 AI라는 신흥 시장에서 이러한 지배력에 도전하려는 전략적 움직임을 나타냅니다. 사용하기 쉽고 최적화되었으며 오픈소스인 도구를 제공함으로써 AMD는 자체 AI 하드웨어 기능을 중심으로 생태계를 구축하여 Ryzen AI 플랫폼을 로컬 AI 실행에 관심 있는 개발자와 최종 사용자에게 더욱 매력적으로 만들고자 합니다. NPU 최적화에 대한 명시적인 초점은 GPU 중심 접근 방식과 차별화되며 특정 AI 작업에 대한 전용 신경 프로세서에 내재된 전력 효율성 이점을 강조합니다.

GAIA를 허용적인 MIT 오픈소스 라이선스로 출시하기로 한 결정 또한 전략적으로 중요합니다. 이는 전 세계 개발자 커뮤니티의 협업과 기여를 유도합니다. 이러한 접근 방식은 프로젝트 개발을 가속화하고 새로운 기능 및 모델 통합으로 이어질 수 있으며 AMD의 AI 플랫폼에 투자하는 커뮤니티를 육성할 수 있습니다. AMD는 버그 수정 및 기능 향상을 위한 풀 리퀘스트를 명시적으로 환영하며, 집단적 노력을 통해 GAIA를 발전시키겠다는 의지를 보여줍니다. 오픈소싱은 개발자가 GAIA 프레임워크 위에서 실험하고 통합하며 잠재적으로 상용 애플리케이션을 구축하는 장벽을 낮추어 Ryzen AI 주변 생태계를 더욱 활성화합니다.

현재 버전은 온디바이스 실행에 적합한 소규모 LLM에 중점을 두고 있지만, GAIA가 마련한 기반은 NPU 기술이 계속 발전함에 따라 더 복잡한 모델과 애플리케이션을 지원하는 길을 열 수 있습니다. 이는 AMD의 명확한 의사 표명입니다. 개인적이고 로컬화된 인공지능 시대의 주요 세력이 되어, AI 기능을 안전하고 효율적으로 사용자 손에 직접 제공하는 데 필요한 하드웨어와 접근 가능한 소프트웨어 도구를 제공하겠다는 것입니다. ‘Generative AI Is Awesome’이라는 이름은 다소 비공식적일 수 있지만, 빠르게 진화하는 이 기술 분야에서 회사의 열정과 야망을 강조합니다.