Graniteシリーズの改良:機能の集中化とフットプリントの削減
IBMのGranite 3.2モデルは、より小規模なモデルを開発するという同社の方針の継続を示すものです。これらのモデルは、コンピューティングリソースに過度の要求を課すことなく、特定の機能を提供するように設計されています。このアプローチは、強力かつ費用対効果の高いAIソリューションを必要とする多くの企業の実際的なニーズに合致しています。
これらのモデルは、Hugging FaceでApache 2.0ライセンスの下でオープンに利用可能です。一部のバージョンは、IBM独自のwatsonx.aiプラットフォーム、Ollama、Replicate、LM Studioからもアクセスできます。この幅広いアクセス性は、今後数ヶ月以内にこれらのモデルをRed Hat Enterprise Linux AI 1.5に統合する計画によってさらに強化され、IBMのオープンソースAIへのコミットメントを強固なものにしています。
ドキュメント処理の革新:Granite Visionモデル
今回のリリースの際立った特徴は、ドキュメント理解タスク専用に設計された新しいビジョン言語モデルです。このモデルは、企業がドキュメントと対話し、そこから情報を抽出する方法における大きな進歩を表しています。IBMの内部ベンチマークテストによると、この新しいモデルは、エンタープライズレベルのワークロードを反映するように特別に設計されたテストにおいて、はるかに大規模な競合モデルと同等、またはそれ以上のパフォーマンスを発揮します。
この機能の開発には、IBMのオープンソースDoclingツールキットの活用が含まれていました。このツールキットを使用して、8,500万件ものPDFドキュメントが処理され、2,600万件の合成質問応答ペアが生成されました。この広範な準備により、モデルは、金融、ヘルスケア、法律サービスなど、多くのエンタープライズ環境に特徴的なドキュメント集約型のワークフローを処理するための十分な準備が整っています。
主要な統計は、規模と効率性を強調しています。
- 8,500万: 新しいビジョンモデルのトレーニングのためにIBMのDoclingツールキットを使用して処理されたPDFドキュメントの数。この膨大なデータセットは、モデルが現実世界のドキュメント処理の課題に対応できることを示しています。
- 30%: Granite Guardianセーフティモデルで達成されたサイズ削減(パフォーマンスレベルは維持)。これは、安全性を犠牲にすることなく効率性を最適化するというIBMのコミットメントを示しています。
- 2年: IBMのTinyTimeMixersモデルの最大予測範囲(パラメータ数は1,000万未満)。これは、長期予測のためのこれらの特殊なモデルの驚くべき能力を示しています。
推論の強化:思考の連鎖と推論のスケーリング
IBMはまた、Granite 3.2の2Bおよび8Bパラメータバージョンに「思考の連鎖」推論を組み込みました。この機能により、モデルは構造化された系統的な方法で問題に取り組み、人間の推論プロセスを模倣したステップに分解することができます。これにより、論理的演繹を必要とする複雑なタスクに取り組むモデルの能力が向上します。
重要なことに、ユーザーはタスクの複雑さに応じてこの機能を有効または無効にする柔軟性を持っています。この適応性は重要な差別化要因であり、組織は特定のニーズに基づいてリソースの使用率を最適化できます。単純なタスクの場合、思考の連鎖推論を無効にしてコンピューティングパワーを節約できますが、より複雑な問題の場合は、有効にしてモデルの完全な推論能力を活用できます。
これらの機能強化により、命令追従ベンチマークにおける8Bモデルのパフォーマンスが大幅に向上し、以前のバージョンを上回りました。革新的な「推論スケーリング」手法を通じて、IBMは、この比較的小さなモデルでさえ、数学推論ベンチマークにおいて、はるかに大きなシステムと効果的に競争できることを実証しました。これは、特定のドメインで優れたパフォーマンスを提供する、より小さく最適化されたモデルの可能性を強調しています。
安全性とニュアンス:Granite Guardianのアップデート
AI生成コンテンツに関連する潜在的なリスクを監視および軽減するように設計されたGranite Guardianセーフティモデルも、大幅なアップデートを受けました。これらのモデルは、パフォーマンスレベルを維持しながら、サイズが30%削減されました。この最適化は、効率性の向上とリソース消費の削減に貢献します。
さらに、これらのモデルには、「言語化された信頼度」と呼ばれる機能が含まれるようになりました。この機能は、安全性監視における不確実性の度合いを認識することにより、よりニュアンスのあるリスク評価を提供します。モデルは、単に安全/安全でないという二項分類を提供するのではなく、評価におけるさまざまなレベルの信頼度を表現できるため、ユーザーはより有益で透明性の高い評価を得ることができます。
TinyTimeMixers:戦略的計画のための長期予測
Graniteのアップデートに加えて、IBMは次世代のTinyTimeMixersモデルもリリースしました。これらのモデルは非常に小さく、パラメータ数は1,000万未満です。これは、業界の他の多くのモデルのサイズのほんの一部です。コンパクトなサイズにもかかわらず、これらの特殊なモデルは、最大2年先までの時系列データを予測できます。
この機能は、次のようなさまざまなビジネスアプリケーションに特に役立ちます。
- 金融トレンド分析: 市場の動きを予測し、投資機会を特定します。
- サプライチェーン計画: 在庫レベルを最適化し、需要の変動を予測します。
- 小売在庫管理: 顧客の需要を満たすのに十分な在庫レベルを確保しながら、無駄を最小限に抑えます。
これらのアプリケーションはすべて、長期的な予測に基づいて情報に基づいた意思決定を行う能力に依存しているため、TinyTimeMixersモデルは戦略的なビジネス計画のための強力なツールになります。
現実世界のビジネス制約への対応
Graniteモデル内で推論機能を切り替える機能は、AI実装における実際的な課題に直接対処します。段階的な推論アプローチは強力ですが、常に必要とは限らない大量のコンピューティングパワーを必要とします。この機能をオプションにすることで、IBMは、組織がより単純なタスクのコンピューティングコストを削減しながら、より複雑な問題に対して高度な推論のオプションを保持できるようにします。
このアプローチは、効率性と費用対効果が多くの場合、生のパフォーマンスと同じくらい重要である現実世界のビジネス制約を深く理解していることを反映しています。特定のビジネスニーズに合わせて調整できる実用的なソリューションを提供することに重点を置いているIBMは、ますます混雑するAI市場における重要な差別化要因です。
牽引力の獲得:実際の影響の証拠
より小さく、特殊なモデルを開発するというIBMの戦略は、市場に共鳴しているようです。以前のGranite 3.1 8Bモデルは最近、顧客関係管理(CRM)のSalesforce LLMベンチマークで強力なパフォーマンスを達成しました。このベンチマークは、顧客との対話分析やパーソナライズされたコンテンツ生成など、CRMに関連するタスクにおけるLLMのパフォーマンスを評価するように特別に設計されています。
このベンチマークでのGranite 3.1 8Bモデルの強力なパフォーマンスは、より小さく、特殊なモデルが特定のビジネスニーズを効果的に満たすことができることを示唆しています。これは、IBMのアプローチが理論的に健全であるだけでなく、実際にも実行可能であるというさらなる証拠を提供します。
効率性、統合、および現実世界への影響に焦点を当てる
IBM AI ResearchのバイスプレジデントであるSriram Raghavanは、同社の哲学を簡潔に要約しています。「AIの次の時代は、効率性、統合、そして現実世界への影響に関するものであり、企業はコンピューティングに過度の費用をかけずに強力な成果を達成できます。IBMの最新のGranite開発は、オープンソリューションに焦点を当てており、AIを現代の企業にとってよりアクセスしやすく、費用対効果が高く、価値のあるものにするためのさらなる一歩を示しています。」
この声明は、技術的に高度であるだけでなく、実用的で、アクセス可能で、企業の現実世界のニーズに合致したAIソリューションを開発するというIBMのコミットメントを要約しています。オープンソリューションへの重点は、AIコミュニティ内でのコラボレーションとイノベーションを促進するというIBMの献身をさらに強調しています。重点は、単に最大のモデルを構築することから、具体的な価値を提供し、企業が戦略的目標を達成できるようにするAIツールを作成することに移行しています。