OCI Generative AI의 Meta Llama 4 출시

Oracle Cloud Infrastructure (OCI) Generative AI 서비스에서 Meta Llama 4 모델 시리즈(Scout 및 Maverick 포함)의 출시를 발표하게 되어 기쁩니다. 이러한 모델은 뛰어난 처리 능력과 효율성을 위해 특별히 설계된 MoE(Mixture of Experts) 아키텍처를 통합하였습니다. 이 모델들은 멀티모달 이해, 다국어 작업, 코드 생성, 도구 호출과 같은 다양한 영역에서 탁월한 성능을 발휘하며, 더 나아가 고급 에이전트 시스템을 구동할 수 있는 역량을 갖추고 있습니다.

현재 이 모델들은 다음 리전에서 GA(정식 출시) 버전으로 제공됩니다.

  • 온디맨드: ORD(시카고)
  • 전용 AI 클러스터: ORD(시카고), GRU(과룰류스), LHR(런던), KIK(키코요)

Llama 4 시리즈의 주요 특징

멀티모달 역량: 데이터 유형의 경계를 허물다

Llama 4 Scout 및 Maverick은 단순한 언어 모델이 아닌 진정한 멀티모달 마스터입니다. 텍스트, 이미지 등 다양한 유형의 데이터를 기본적으로 처리하고 통합할 수 있어 더욱 풍부하고 포괄적인 AI 애플리케이션을 구현할 수 있습니다. 예를 들어 AI 시스템이 텍스트 설명과 관련 이미지를 동시에 이해하여 맥락을 파악하고 더 나은 의사 결정을 내릴 수 있다고 상상해 보십시오. 이러한 멀티모달 역량은 이미지 캡션 생성, 시각적 질의 응답과 같은 작업에 새로운 가능성을 열어줍니다.

다국어 지원: 언어 장벽 없는 소통

Llama 4 시리즈의 또 다른 주요 특징은 강력한 다국어 지원 기능입니다. 이 모델들은 200개 언어를 포함하는 데이터 세트에서 훈련되었으며, 특히 12개의 주요 언어(아랍어, 영어, 프랑스어, 독일어, 힌디어, 인도네시아어, 이탈리아어, 포르투갈어, 스페인어, 타갈로그어, 태국어, 베트남어)에 대해 미세 조정되었습니다. 즉, 다양한 언어의 텍스트를 이해하고 생성할 수 있어 전 세계적으로 폭넓은 애플리케이션을 지원할 수 있습니다. 다만 이미지 이해 기능은 현재 영어만 지원합니다.

효율적인 개발: 더 작은 GPU 점유 공간

개발자를 위해 Llama 4 Scout는 더 높은 접근성을 제공하도록 설계되었습니다. 작은 GPU 점유 공간에서 효율적으로 실행될 수 있어 리소스가 제한된 환경에 이상적입니다. 즉, 강력한 하드웨어 장비 없이도 Llama 4 Scout의 강력한 기능을 활용하여 AI 애플리케이션 개발 및 배포를 가속화할 수 있습니다.

오픈 소스 모델: 커뮤니티 지원

Meta는 개방적인 자세를 취하여 Llama 4 커뮤니티 라이선스 계약에 따라 두 모델을 출시했습니다. 즉, 개발자는 특정 라이선스 조건을 준수하는 한 자유롭게 모델을 미세 조정하고 배포할 수 있습니다. 이러한 개방형 모델은 AI 커뮤니티의 혁신과 협업을 촉진하고 더 많은 사람들이 AI 기술 개발 및 애플리케이션에 참여할 수 있도록 지원합니다.

지식 컷오프 날짜

Llama 4 모델의 지식 컷오프 날짜는 2024년 8월입니다. 즉, 이 날짜 이후에 발생한 이벤트나 정보에 대한 최신 정보를 제공하지 못할 수 있습니다.

중요: Llama 사용 정책은 EU(유럽 연합) 내에서의 사용을 제한합니다.

Llama 4 Scout: 경량급 챔피언

아키텍처: 영리한 파라미터 설계

Llama 4 Scout는 총 약 1090억 개의 파라미터 중 170억 개의 파라미터만 활성화하는 영리한 아키텍처 설계를 채택했습니다. 이러한 설계는 16명의 전문가 혼합을 활용하여 성능과 효율성 간의 균형을 맞춥니다. 파라미터의 일부만 활성화함으로써 Scout는 계산 요구 사항을 크게 줄여 리소스가 제한된 환경에서 실행할 수 있습니다.

컨텍스트 창: 긴 텍스트 처리 용량

Llama 4 Scout는 최대 1천만 개의 토큰 컨텍스트 길이를 지원합니다(여러 GPU 필요). 그러나 GA(정식 출시) 시 OCI Generative AI 서비스는 192,000개의 토큰 컨텍스트 길이를 지원합니다. 192,000개의 컨텍스트 창으로도 책의 장이나 자세한 보고서와 같이 상당히 긴 텍스트를 처리하기에 충분합니다.

배포: 작지만 강력함

Llama 4 Scout의 설계 목표 중 하나는 작은 GPU 점유 공간에서 효율적으로 실행하는 것입니다. 따라서 엣지 장치 및 리소스가 제한된 클라우드 환경을 포함한 다양한 배포 시나리오에 이상적입니다.

성능: 경쟁자 능가

Llama 4 Scout는 여러 벤치마크 테스트에서 뛰어난 성능을 보여 Google의 Gemma 3 및 Mistral 3.1과 같은 모델을 능가했습니다. 이는 Scout의 뛰어난 성능을 입증하며 다양한 AI 작업에 유용한 도구입니다.

Llama 4 Maverick: 헤비급 강자

아키텍처: 더 큰 규모, 더 강력한 힘

Scout에 비해 Llama 4 Maverick은 더 큰 아키텍처 규모를 채택했습니다. 마찬가지로 170억 개의 파라미터를 활성화하지만 총 약 4천억 개의 파라미터 프레임워크 내에서 구현되었으며, 128명의 전문가를 활용합니다. 이러한 더 큰 규모는 Maverick에게 강력한 기능을 제공하여 더욱 복잡한 AI 작업에서 뛰어난 성능을 발휘할 수 있도록 합니다.

컨텍스트 창: 초장거리 기억력

Llama 4 Maverick은 최대 1백만 개의 토큰 컨텍스트 길이를 지원합니다. GA(정식 출시) 시 OCI 배포는 512,000개의 토큰 컨텍스트 길이를 지원합니다. 이렇게 긴 컨텍스트 창을 통해 Maverick은 전체 책 또는 여러 문서 모음과 같이 매우 복잡한 텍스트를 처리할 수 있습니다.

배포: 더 큰 공간 필요

규모가 더 크기 때문에 Llama 4 Maverick은 Scout보다 더 큰 배포 공간이 필요합니다. GA 시 OCI의 Maverick 배포에는 Scout보다 약 두 배의 공간이 필요합니다.

성능: 최고 모델과 경쟁

코드 생성 및 추론 작업 시 Llama 4 Maverick의 성능은 OpenAI의 GPT-4o 및 DeepSeek-V3과 같은 최고 모델과 견줄 만합니다. 이는 AI 분야에서 Maverick의 선도적인 위상을 입증합니다.

결론적으로 Llama 4 시리즈는 AI 모델 개발의 중요한 진전을 나타냅니다. 성능, 다재다능성 및 접근성이 크게 개선되어 다양한 애플리케이션 시나리오에 강력한 지원을 제공합니다.

OCI 고객은 이제 인프라 관리의 복잡성에 대한 걱정 없이 이러한 강력한 모델을 쉽게 활용할 수 있습니다. 채팅 인터페이스, API 또는 전용 엔드포인트를 통해 이러한 모델에 액세스하여 AI 애플리케이션 개발 및 배포 프로세스를 간소화할 수 있습니다.

Llama 4 모델의 출시는 OCI Generative AI 서비스의 새로운 시대를 알립니다. 이러한 고급 모델을 제공함으로써 OCI는 고객이 AI의 모든 잠재력을 활용하고 모든 산업 분야에서 혁신을 주도할 수 있도록 지원합니다.