2. Nvidia
ますます高度化するAIシステムへの探求は、大規模言語モデル開発者からの多額の投資を促進し続けています。しかし、このAI革命の恩恵をすでに受けている企業が1つあります。それがNvidiaです。同社のGPUはAI競争に火をつけ、Blackwellプロセッサとプラットフォームは人間レベルの知能の追求をサポートする完璧な位置にあります。
Blackwellは、前モデルのH100を凌駕し、一般的なモデルトレーニングタスクで最大2.5倍の能力を提供し、同時に消費電力を大幅に削減します。Google、Meta、Microsoft、OpenAI、Tesla、xAIなどの業界大手を含む主要なデータセンター事業者やAIラボは、数十万個のBlackwell GPUの購入を確約しています。
DeepSeekやAlibabaのような中国企業の最近のモデルは、旧式の、それほど強力ではないNvidia GPUを使用して印象的な能力を示していますが、Nvidiaは単に現状に満足しているわけではありません。同社は、創薬(Clara for Biopharma)、自動運転車(Drive AGX)、ビデオ制作(Holoscan)、デジタルツイン(Omniverse)など、多様なアプリケーション向けのプラットフォームを積極的に開発しています。幅広い現実世界のシナリオでAIの進歩を促進することにより、Nvidiaは、将来のモデルが計算能力への依存度を減らしたとしても、持続的な成長を遂げるための戦略的な位置を確立しています。
3. OpenAI
2019年以来、OpenAIはトレーニングデータと計算リソースを拡大することでモデルを一貫して強化してきました。この戦略は業界全体で広く採用されています。しかし、このスケーリングアプローチからの収益逓減が明らかになるにつれて、OpenAIはAGI(ほとんどのタスクで人間の知能を超えるモデル)を達成するための新しい道筋の必要性を認識しました。
OpenAIの解決策は、o1モデルという形で現れました。事前トレーニング中にリソースをスケールアップすることだけに焦点を当てるのではなく、OpenAIはo1を設計し、推論中(モデルがアクティブに展開され、ユーザーのプロンプトに応答する段階)により多くの時間と計算能力を割り当てるようにしました。このプロセス中に、o1はユーザーと関連データソースの両方からコンテキスト情報を収集して保持します。試行錯誤の方法論を採用して、回答への最適なパスを決定します。その結果、複雑な質問に対してPhDレベルの応答が生成され、o1はパフォーマンスベンチマークランキングのトップに躍り出ました。
OpenAIは、ChatGPT Plusの加入者にo1の’実験的’バージョンと’ミニ’バージョンを提供しています。さらに、ChatGPT Proと呼ばれるプレミアムサービスは、月額200ドルで完全なo1モデルへの無制限アクセスを提供します。2024年12月、OpenAIはo1の後継であるo3を発表し、2025年2月には、科学、数学、コーディングに最適化された、より小さく高速なバリアントであるo3-miniへの有料ユーザーアクセスを許可しました。OpenAIの新しい推論モデルの最も大きな影響は、推論時のコンピューティングのスケーリングアップが、AGIへの道のりで知能のさらなるブレークスルーを達成するための有望な手段であることを検証したことです。
4. Google DeepMind
今日のチャットボットの基礎となる研究は、2010年代後半にGoogleで始まりました。Googleは、ChatGPTの出現よりもずっと前に、大規模言語モデルを搭載したチャットボットを開発していました。しかし、安全性、プライバシー、および法的影響に関する懸念により、慎重なアプローチがとられ、一般公開が遅れたと報告されています。このためらいにより、Googleは当初、ChatGPTの立ち上げによって引き起こされたその後のAI競争で遅れをとることになりました。
2024年のGoogle DeepMindのGemini 2.0のリリースは、Googleの明確な復活を示しました。Gemini 2.0は、本質的にマルチモーダルである最初のマスマーケットAIモデルであり、テキストと同じように画像、ビデオ、オーディオ、およびコンピューターコードを処理および生成できます。この機能により、モデルはビデオクリップ、または電話のカメラからのライブビデオフィードでさえも、驚くべき速度と精度で分析および推論できます。
Geminiは、MapsやSearchなどの他のGoogleサービスを制御できる点でも際立っています。この統合は、Googleの戦略的優位性を示しており、AI研究と確立された情報および生産性ツールを組み合わせています。Geminiは、自律的な操作と、ユーザーに代わって複雑な問題を推論する能力を示す最初のAIモデルの1つです。Gemini 2.0 Flash Thinking Experimentalモデルは、回答に到達するために採用された思考プロセスに関する洞察をユーザーに提供します。さらに、12月にGoogleは、オンライン食料品の買い物を自律的に実行するように設計されたGeminiベースのエージェントAI機能であるProject Marinerを発表しました。
5. Anthropic
生成AIの主な用途は、これまでのところ、テキストの作成、要約、および画像生成に集中していました。次の進化のステップは、大規模言語モデルに推論能力とツールを使用する能力を装備することです。Anthropicの’Computer Use’モデルは、この未来を垣間見せてくれました。
2024年のClaude 3.5 Sonnetから、Anthropicのモデルは、インターネットコンテンツを含む画面上のアクティビティを認識できます。カーソルを操作し、ボタンをクリックし、テキストを入力できます。デモンストレーションビデオでは、Claudeがブラウザタブで開いているWebサイトで利用可能な情報を使用してフォームを完成させる能力が示されました。個人のWebサイトを作成したり、日帰り旅行のロジスティクスを整理したりするなどのタスクを実行できます。新しいタブを開き、検索を実行し、データフィールドに入力するなど、AIの自律的なアクションは本当に注目に値します。
モデルは現在、より遅いペースで動作し、常に正しい答えを生成するとは限りませんが、Anthropicがその制限を特定して対処するにつれて、急速な改善が予想されます。Googleの前述のProject Marinerは、12月にAnthropicの先導に従い、OpenAIは2025年1月に独自のコンピューター使用モデルであるOperatorを発表しました。2025年2月、Anthropicは、次の主要なイテレーションであるClaude 3.7 Sonnetを発表しました。これは、困難なクエリに対して自動的に推論モードに入る機能を備えた、より大きなモデルです。
6. Microsoft
MicrosoftのPhiモデルの開発は、2023年に同社の研究者によって提起された基本的な質問から始まりました。’創発的な知能の兆候を示すことができる最小のモデルサイズはどれくらいですか?’この質問は、’小規模言語モデル’(メモリ、処理能力、または接続性が限られており、迅速な応答時間が重要なシナリオで最適なパフォーマンスを発揮するように設計されたモデル)の進化における重要な瞬間を示しました。
2024年を通じて、Microsoftは、トレーニング中に明示的に組み込まれていない推論とロジックの能力を示す2世代の小型モデルをリリースしました。4月に、同社は、言語、推論、コーディング、および数学のベンチマークで優れた一連のPhi-3モデルを発表しました。これは、はるかに大きく、より高性能なLLMによって生成された合成データでトレーニングされたためと考えられます。オープンソースのPhi-3のバリアントは、2024年にHugging Faceで450万回以上ダウンロードされました。
2024年後半、MicrosoftはPhi-4小規模言語モデルを発表しました。これは、推論に焦点を当てたタスクでPhi-3モデルを上回り、GPQA(科学的な質問)およびMATHベンチマークでOpenAIのGPT-4oさえも上回りました。Microsoftは、オープンソースおよびオープンウェイトライセンスの下でモデルをリリースし、開発者が電話やラップトップ用のエッジモデルまたはアプリケーションを作成できるようにしました。1か月も経たないうちに、Phi-4はHugging Faceで375,000件のダウンロードを獲得しました。
7. Amazon
Amazon AWSは最近、AI用のTrainiumプロセッサの新バージョンであるTrainium2を発表しました。これは、特定の設定でNvidia GPUの優位性に挑戦する可能性があります。Trainium2は、最大の生成AIモデルのトレーニングと、モデル展開後の推論時の操作に必要な大規模な計算能力を提供するように設計されています。AWSは、Trainiumは同等のタスクでGPUよりも30%から40%費用対効果が高いと主張しています。
Trainium2は、最初のTrainiumチップで見られた電力とソフトウェアの統合の欠点に対処し、AmazonがNvidiaとのギャップを埋める可能性のある位置にいます。(AWS自体がGPUをNvidiaに大きく依存していることは注目に値します。)NvidiaのCUDAソフトウェアレイヤー(研究者にモデルがチップのリソースをどのように利用するかをきめ細かく制御できる)による顧客のロックインのため、Nvidiaを置き換えることは困難な課題です。Amazonは、CUDAと同様に、研究者がチップカーネルの相互作用をきめ細かく制御できる独自のカーネル制御ソフトウェアレイヤーであるNeuron Kernel Interface(NKI)を提供しています。
Trainium2はまだ大規模にテストされていないことに注意することが重要です。AWSは現在、Anthropic向けに40万個のTrainium2チップを備えたサーバークラスターを構築しています。これは、大規模展開でAIチップのパフォーマンスを最適化するための貴重な洞察を提供する可能性があります。
8. Arm
英国の半導体設計会社であるArmは、長い間、電話、センサー、IoTハードウェアなどの小型デバイスに電力を供給するチップで使用されるアーキテクチャの主要プロバイダーでした。この役割は、エッジデバイスチップがAIモデルを実行するようになる新たな時代において、さらに重要になります。データセンターもこの進化において重要な役割を果たし、多くの場合、最も要求の厳しいAI処理の一部またはすべてを処理し、結果をエッジデバイスに配信します。
データセンターが世界中に普及するにつれて、その電力消費はますます差し迫った問題になります。この要因は、Armの最新のNeoverse CPUアーキテクチャの効率性の重視に貢献しています。同社によると、以前の世代よりも50%パフォーマンスが向上し、競合するx86アーキテクチャを利用するプロセッサと比較してワットあたりのパフォーマンスが20%向上しています。
Armは、Amazon、Microsoft、Google、およびOracleがすべて、汎用コンピューティングとCPUベースのAI推論およびトレーニングの両方にArm Neoverseを採用したと報告しています。たとえば、2024年に、Microsoftは、クラウド向けに設計された最初のカスタムシリコンであるCobalt 100プロセッサがArm Neoverse上に構築されたことを発表しました。最大のAIデータセンターのいくつかは、Hopper GPUとNeoverseに基づくGrace CPUを組み合わせたNVIDIAのGrace Hopper Superchipに依存します。Armは今年独自のCPUを発売する予定であり、Metaが最初の顧客の1つです。
9. Gretel
過去1年間、AI企業は、Webからスクレイピングされたますます多くのデータでモデルをトレーニングすることから収益が逓減することを経験しました。その結果、トレーニングデータの量から質へと焦点を移しました。これにより、出版社のパートナーからライセンス供与された非公開コンテンツや専門コンテンツへの投資が増加しました。AI研究者は、人間が生成した、または人間が注釈を付けたトレーニングデータ内のギャップや盲点に対処する必要もあります。この目的のために、彼らは専門のAIモデルによって生成された合成トレーニングデータにますます目を向けています。
Gretelは、2024年に合成トレーニングデータの作成とキュレーションを専門とすることで有名になりました。同社は、主力製品であるGretel Navigatorの一般提供を発表しました。これにより、開発者は自然言語またはSQLプロンプトを使用して、微調整とテスト用の合成トレーニングデータセットを生成、拡張、編集、およびキュレーションできます。このプラットフォームはすでに15万人以上の開発者のコミュニティを魅了しており、彼らは3,500億を超えるトレーニングデータを合成しています。
他の業界関係者は、Gretelの能力に注目しています。GretelはGoogleと提携して、Google Cloudの顧客が合成トレーニングデータに簡単にアクセスできるようにしました。Databricksとの同様のパートナーシップが6月に発表され、Databricksのエンタープライズ顧客は、Databricksクラウド内で実行されているモデルの合成トレーニングデータにアクセスできるようになりました。
10. Mistral AI
フランスの生成AI分野の競争相手であるMistral AIは、最先端のAIモデル開発の最前線で、OpenAI、Anthropic、およびGoogleに一貫して圧力をかけてきました。Mistral AIは、2024年に重要な技術的進歩を組み込んだ一連の新しいモデルをリリースし、APIの直接販売と戦略的パートナーシップの両方を通じて急速なビジネス成長を示しました。
今年の初めに、同社はMixtralと呼ばれる2つのオープンソースモデルを発表しました。これは、モデルのパラメータの特殊なサブセットのみがクエリの処理に関与し、効率を高める’混合エキスパート’アーキテクチャの革新的な使用で注目に値します。2024年7月、MistralはMistral Large 2を発表しました。これは、1,230億のパラメータで、コード生成、数学、推論、および関数呼び出しの大幅な改善を示しました。フランスの会社はまた、ラップトップまたは電話での実行用に設計された、より小さなモデルであるMinistral 3BとMinistral 8Bをリリースしました。これらは、ユーザーが提供する約50ページのテキストページのコンテキスト情報を保存できます。
Mistralは、OpenAIのような米国のAI企業に代わる低コストで柔軟な代替手段としての地位を確立することにより、ヨーロッパで成功を収めています。また、2024年中に米国エンタープライズ市場への拡大を続けました。6月に、同社はベンチャーキャピタル企業General Catalystが主導する6億4,000万ドルの資金調達ラウンドを確保し、Mistralの評価額を約62億ドルに引き上げました。
11. Fireworks AI
Fireworksは、AI展開のインフラストラクチャの構築に関連する、しばしば複雑なエンジニアリング作業を合理化するカスタムランタイム環境を提供します。Fireworksプラットフォームを使用すると、企業は100を超えるAIモデルのいずれかを統合し、特定のユースケースに合わせてカスタマイズおよび微調整できます。
同社は、2024年にAI業界の主要なトレンドを活用できる新製品を発表しました。まず、開発者はAIを活用したモデルとアプリケーションの応答性にますます焦点を当てるようになりました。Fireworksは、モデルのパフォーマンスを高速化し、ネットワークの遅延を削減する最適化および量子化ソフトウェアであるFireAttention V2を発表しました。次に、AIシステムは、APIを介してさまざまなモデルとツールを呼び出す’パイプライン’にますます進化しています。新しいFireFunction V2ソフトウェアは、これらのますます複雑なシステム内のすべてのコンポーネント、特に企業がより自律的なAIアプリケーションを展開する際のオーケストレーターとして機能します。
Fireworksは、2024年に収益が600%増加したと報告しています。その顧客ベースには、Verizon、DoorDash、Uber、Quora、Upworkなどの著名な企業が含まれます。
12. Snorkel AI
企業は、AIシステムの有効性がデータの品質に直接関係していることに気づきました。Snorkel AIは、企業が独自のデータをAIモデルで使用できるように準備するのを支援することで、繁栄しているビジネスを構築しました。同社のSnorkel Flow AIデータ開発プラットフォームは、企業が独自のデータにラベルを付けてキュレーションするための費用対効果の高い方法を提供し、特定のビジネスニーズに合わせてAIモデルをカスタマイズおよび評価するために使用できるようにします。
2024年、Snorkelは画像のサポートを拡大し、企業が独自の画像を使用してマルチモーダルAIモデルと画像ジェネレーターをトレーニングできるようにしました。また、検索拡張生成(RAG)をプラットフォームに組み込み、顧客が独自のナレッジベースコンテンツなどの長いドキュメントから最も関連性の高い情報セグメントのみを取得して、AIトレーニングで使用できるようにしました。Snorkel Customは、新しい、よりタッチの高いサービスレベルであり、Snorkelの機械学習エキスパートが顧客とプロジェクトで直接協力します。
Snorkelは、2024年に前年比の年間予約が2倍になり、過去3年間で年間予約が3桁の成長を遂げたと述べています。同社によると、Chubb、Wayfair、Experianなどのブランドとともに、6つの最大の銀行がSnorkel Flowを利用しています。
13. CalypsoAI
AIが重要な意思決定プロセスでますます重要な役割を果たすようになるにつれて、企業はモデルの内部動作に対する可視性を高めようとしています。このニーズは、バイアスやその他の意図しない出力を継続的に監視する必要がある規制対象業界で特に顕著です。CalypsoAIは、この新たな要件を最初に認識した企業の1つであり、AIインフラストラクチャプラットフォームの説明可能性機能を強化することで迅速に対応しました。
Calypsoを際立たせているのは、その可観測性テクノロジーの幅です。2024年、同社はAIセキュリティプラットフォームを立ち上げました。これは、モデルベンダーやモデルが内部でホストされているか外部でホストされているかに関係なく、企業が使用している可能性のあるすべてのアクティブな生成AIモデルを保護、監査、および監視することにより、企業データを保護します。Calypsoはまた、ユーザーがAIの決定の根底にあるロジックをリアルタイムで観察できる新しい視覚化ツールを導入しました。
市場は、CalypsoのAI可観測性の重視に積極的に反応しています。同社は、2024年に収益が10倍に増加したと報告しており、2025年にはさらに5倍に増加すると予想しています。
14. Galileo
AIシステムは、1年前と比較して事実の幻覚やバイアスの発生が少なくなっていますが、これらの問題の影響を受けやすいままです。これは、AIを利用しているすべての企業、特にヘルスケアや銀行などの規制対象セクターにとって、重大な懸念事項です。AI開発チームは、GalileoのAIプラットフォームを使用して、モデルとアプリケーションの精度を測定、最適化、および監視します。
2024年初頭、2年間の研究の後、Galileoは有害な出力を識別するためにトレーニングされた評価モデルのスイートであるLunaをリリースしました。これらのモデルにより、Galileoのプラットフォームは、LLMが応答を構成するトークンを組み立てるときに、LLMの作業を迅速に精査してスコアリングできます。このプロセスには約200ミリ秒かかり、AIの出力をフラグを立ててユーザーに表示されないようにするのに十分な時間があります。標準のLLMはこのタスクを実行できますが、かなり高価になります。Galileoの専用モデルは、優れた精度、費用対効果、そして重要なことに速度を提供します。
Galileoは、2024年に顧客ベースが4倍になったと報告しており、クライアントにはTwilio、Reddit、Chegg、Comcast、JPMorgan Chaseが含まれます。スタートアップはまた、Hugging Face CEOのClément Delangueなどの投資家から6,800万ドルの資金調達ラウンドを確保しました。
15. Runway
AIを取り巻く最も重要な願望(そして不安)の1つは、映画製作の芸術と経済に革命をもたらすのに十分な品質のビデオを生成する可能性です。このテクノロジーは、2024年にこの未来に向けて大きく前進し、ニューヨークを拠点とするビデオ生成スタートアップであるRunwayが主導的な役割を果たしました。2024年6月のRunwayのGen-3 Alphaモデルのリリースは、生成されたビデオの信憑性が大幅に向上したことで、AIコミュニティ内で広く称賛されました。
Runwayはまた、AIビデオの美学を制御するためのツールに大幅な機能強化を実装しました。モデルは画像とビデオの両方でトレーニングされており、テキストまたは画像の入力に基づいてビデオを生成できます。同社はその後、Gen-3のより費用対効果が高く高速なバージョンであるGen-3 Alpha Turboをリリースしました。
ハリウッドは生成AIの進歩を注意深く監視しており、Runwayはエンターテインメント業界のプレーヤー向けにカスタムバージョンのモデルの作成を開始したと報告しています。2024年9月にLionsgate Studiosと正式なパートナーシップを締結しました。Runwayは制作会社向けのカスタムモデルを開発し、Lionsgateの映画カタログでトレーニングしました。Runwayは、このモデルはLionsgateの映画製作者、監督、およびその他のクリエイターが’時間、お金、およびリソースを節約しながら’作業を’拡張’するのを支援することを目的としていると述べています。Runwayは、Lionsgateとの取り決めが、他の制作会社との同様のコラボレーションの青写真として役立つ可能性があると考えています。
16. Cerebras Systems
AIシステム、特に大規模なフロンティアモデルは、大規模に動作するために膨大な計算能力を必要とします。これには、ワークロードを分散するために数千または数百万のチップを相互接続する必要があります。ただし、チップ間のネットワーク接続は、パフォーマンスのボトルネックを引き起こす可能性があります。Cerebras Systemsのテクノロジーは、単一の非常に大きなチップに大量の計算能力を統合することによる速度と効率の利点を活用するように設計されています。
たとえば、同社の最新のWSE-3(第3世代Wafer Scale Engine)チップは、814平方ミリメートル(ディナープレートのサイズ)で、Nvidiaの市場をリードするH100チップの56倍の大きさです。チップには驚異的な4兆個のトランジスタが組み込まれており、44ギガビットのメモリを提供します。これらのチップは、Cerebrasが最大の顧客であるUAEベースのAIおよびクラウドコンピューティング企業であるG42と共同で開発している相互接続されたスーパーコンピューターの’星座’であるCondor Galaxyなどのスーパーコンピューターを形成するためにクラスター化できます。
これまで、Cerebrasは、Mayo Clinic、Sandia National Laboratories、Lawrence Livermore National Laboratory、Los Alamos National Laboratoryなどの大規模な研究機関でニッチを見つけてきました。同社は2024年9月にIPOを申請しました。目論見書によると、同社の売上高は2023年に3倍以上の7,870万ドルに増加し、2024年上半期には1億3,640万ドルに急増しました。