OCI Generative AIにMeta Llama 4登場!

Meta Llama 4 モデルの OCI Generative AI への衝撃的なリリース

Oracle Cloud Infrastructure (OCI) Generative AI サービスに、Meta Llama 4 モデルシリーズという、非常にエキサイティングな新メンバーが加わりました。これには、Scout と Maverick が含まれます。これらのモデルは、独自の Mixture of Experts (MoE) アーキテクチャを組み込んでおり、処理能力と効率を大幅に向上させています。これらは、マルチモーダル理解、多言語タスク、コード生成、ツール呼び出しなど、多様かつ重要な分野で卓越したパフォーマンスを発揮するように特別に最適化されており、高度なエージェントシステムを推進する機能を備えています。

現在、これらのモデルは、以下のリージョンの一般提供 (GA) バージョンで利用できます。

  • オンデマンド: ORD(シカゴ)
  • 専用 AI クラスタ: ORD(シカゴ)、GRU(グアルーリョス)、LHR(ロンドン)、KIK(キクユ)

Llama 4 シリーズの主なハイライト

マルチモーダル機能:データタイプの境界を打ち破る

Llama 4 Scout と Maverick は、単なる言語モデルではありません。真のマルチモーダルの達人です。テキストや画像を含むさまざまな種類のデータをネイティブに処理および統合できるため、より豊かで包括的な AI アプリケーションを実現できます。テキストによる説明とそれに関連する画像を同時に理解できる AI システムを想像してみてください。これにより、コンテキストをより適切に把握し、より賢明な意思決定を行うことができます。このマルチモーダル機能は、画像キャプションの生成や視覚的な質問応答などのタスクに全く新しい可能性を切り開きます。

多言語サポート:コミュニケーションに国境はない

Llama 4 シリーズのもう1つのハイライトは、その強力な多言語サポート機能です。これらのモデルは、200の言語を含むデータセットでトレーニングされており、12の主要言語(アラビア語、英語、フランス語、ドイツ語、ヒンディー語、インドネシア語、イタリア語、ポルトガル語、スペイン語、タガログ語、タイ語、ベトナム語)向けに微調整されています。つまり、複数の言語のテキストを理解および生成できるため、グローバルな範囲のアプリケーションへの扉が開かれます。注目すべきことに、画像理解機能は現在英語のみをサポートしています。

効率的な開発:より小さな GPU 占有スペース

開発者にとって、Llama 4 Scout の設計の出発点は、より高いアクセス可能性を実現することでした。より小さな GPU 占有スペースで効率的に実行できるため、リソースが限られた環境に最適です。これは、強力なハードウェアデバイスがなくても、開発者が Llama 4 Scout の強力な機能を活用して、AI アプリケーションの開発とデプロイを加速できることを意味します。

オープンソースモデル:コミュニティへのエンパワーメント

Meta は、オープンな姿勢を選択し、Llama 4 コミュニティライセンス契約に基づいて、これらの2つのモデルをリリースしました。これは、開発者が特定のライセンス条項に従うだけで、自由に微調整してデプロイできることを意味します。このオープンなモデルは、AI コミュニティのイノベーションとコラボレーションを促進し、より多くの人々が AI テクノロジーの開発とアプリケーションに参加できるようにします。

知識のカットオフ日

注意すべき点は、Llama 4 モデルの知識のカットオフ日が2024年8月であることです。これは、この日付以降に発生したイベントや情報の最新情報を提供できない可能性があることを意味します。

重要な注意: Llama の利用に関するポリシーでは、EU (欧州連合) 内での利用が制限されています。

Llama 4 Scout:軽量級のチャンピオン

アーキテクチャ:巧妙なパラメータ設計

Llama 4 Scout は、巧妙なアーキテクチャ設計を採用しています。合計約 1,090 億個のパラメータのうち、170 億個のパラメータのみがアクティブ化されます。この設計では、16 人のエキスパートの混合を利用して、パフォーマンスと効率の間の良好なバランスを実現します。Scout は、パラメータの一部のみをアクティブ化することで、計算需要を大幅に削減し、リソースが限られた環境で実行できるようにします。

コンテキストウィンドウ:長文を処理する機能

Llama 4 Scout は、最大 1,000 万トークンのコンテキスト長(複数の GPU が必要)をサポートします。ただし、一般提供 (GA) 時には、OCI Generative AI サービスは 192k トークンのコンテキスト長をサポートします。192k のコンテキストウィンドウでも、書籍の章や詳細なレポートなど、かなり長いテキストを処理するのに十分です。

デプロイメント:コンパクトでありながら強力

Llama 4 Scout の設計目標の 1 つは、より小さな GPU 占有スペースで効率的に実行することでした。これにより、エッジデバイスやリソースが限られたクラウド環境など、さまざまなデプロイメントシナリオに最適です。

パフォーマンス:競合他社を凌駕する

Llama 4 Scout は、複数のベンチマークテストで優れたパフォーマンスを発揮し、Google の Gemma 3 や Mistral 3.1 などのモデルを凌駕しました。これは、Scout のパフォーマンスの卓越した能力を証明しており、さまざまな AI タスクにとって強力なツールとなっています。

Llama 4 Maverick:ヘビー級の選手

アーキテクチャ:より大きなスケール、より強力なパワー

Scout と比較して、Llama 4 Maverick はより大きなアーキテクチャスケールを採用しています。同様に 170 億個のパラメータをアクティブ化しますが、合計約 4,000 億個のパラメータというより大きなフレームワーク内で実現され、128 人のエキスパートを利用しています。このより大きなスケールにより、Maverick はより強力な能力を備え、より複雑な AI タスクで優れたパフォーマンスを発揮できます。

コンテキストウィンドウ:非常に長い記憶力

Llama 4 Maverick は、最大 100 万トークンのコンテキスト長をサポートします。一般提供 (GA) 時には、OCI デプロイメントは 512k トークンのコンテキスト長をサポートします。これほど長いコンテキストウィンドウを使用すると、完全な書籍や複数のドキュメントのコレクションなど、非常に複雑なテキストを処理できます。

デプロイメント:より大きなスペースが必要

Llama 4 Maverick は、そのスケールが大きいため、Scout よりも大きなデプロイメントスペースが必要です。GA 時には、OCI 上の Maverick デプロイメントは約2倍のスペースを必要とします。

パフォーマンス:トップモデルに匹敵する

コード生成および推論タスクでは、Llama 4 Maverick のパフォーマンスは、OpenAI の GPT-4o や DeepSeek-V3 などのトップモデルに匹敵します。これは、AI 分野における Maverick のリーダーシップを証明しています。

結論として、Llama 4 シリーズは、AI モデル開発における大きな進歩を示しています。パフォーマンス、多用途性、アクセスのしやすさの点で大幅に改善されており、さまざまなアプリケーションシナリオに強力なサポートを提供します。

OCI のお客様は、インフラストラクチャ管理の複雑さを心配することなく、これらの強力なモデルを簡単に活用できるようになりました。これらのモデルには、チャットインターフェース、API、または専用のエンドポイントを使用してアクセスできるため、AI アプリケーションの開発とデプロイメントプロセスが簡素化されます。

Llama 4 モデルのリリースは、OCI Generative AI サービスが新しい時代に突入したことを意味します。これらの高度なモデルを提供することにより、OCI は、お客様が AI の可能性を最大限に引き出し、さまざまな業界のイノベーションを推進できるよう支援しています。