AIのPoC高原現象:ROI重視の必要性
PoCの落とし穴
Cohereの共同創業者Ivan Zhang氏は、Web Summitで、AIパイロットに多額の投資をしたにもかかわらず、それに見合うだけの成果が得られていない企業の間で幻滅が広がっていることを指摘しました。彼は、初期アプリケーションを構築したにもかかわらず、コスト、ガバナンス、データセキュリティ、プライバシーなどの問題により、それらを本番環境に移行するのに苦労しているCohereのクライアントが多いことを認めました。この感情は、AIの約束が実装の現実と衝突する、より広範な傾向を反映しています。
彼は、Cohereが新しいワークスペースプラットフォーム「North」で解決しようとしている、費用、規制遵守、データ保護およびプライバシープロトコルの問題点を指摘しました。
ROIの重要性
Zhang氏はインタビューで、AI導入の次の段階は、目に見えるROIによって推進されるべきだと強調しました。企業は、AI投資に対する明確な経済的根拠を確認し、そのメリットがコストを上回るようにする必要があります。彼は、一部のAIシステムは運用コストが非常に高いため、タスクの自動化によるコスト削減効果を打ち消してしまうと警告しました。
「場合によっては、構築したシステムのコスト自体が、実際にそれを実行している人間よりも高くなることがあります」と彼は述べました。
AIの実装によって実際に改善されるのかという本質的な疑問に答える必要があり、そうでなければ、実現しなかったプロジェクトをAI関連企業が請け負うことはなくなります。
AIによる増強 vs. 生産性
Zhang氏はまた、企業が既存の労働力をAIで増強しようとしたものの、生産性の向上を見ることができなかった事例を指摘しました。場合によっては、従業員は単に出力を増やさずに作業負荷を減らし、AIのメリットを事実上否定しました。これは、AIを既存のワークフローにどのように統合するかを慎重に検討し、真の効率向上につながるようにすることの重要性を示しています。
初期段階の挫折を克服する
Zhang氏は、AIスタートアップ企業は、実現しなかったプロジェクトによって「嫌気がさした」企業を取り戻すという任務を負うことになると予想しています。「このテクノロジーの次の市場投入段階は、『ROIはどこにあるのか?』ということです。」彼は、AI企業は、ソリューションの具体的な価値を実証し、測定可能な結果を提供することに焦点を当てることで、信頼を再構築する必要があると信じています。
研究コミュニティからの反響
Zhang氏の観察は、全米経済研究所などの組織の研究によって裏付けられています。この研究所は、AIチャットボットを使用している7,000の職場を調査した後、「どの職種でも、収入や記録された時間に有意な影響は見られなかった」と結論付けました。同様に、ボストンコンサルティンググループの調査では、AIから大きな価値を得ていると回答した幹部はわずか4分の1に過ぎず、企業は複数のパイロットに投資を分散しすぎていることが多いことが示唆されています。
派手な解決策よりもビジネス上の問題を優先する
Zhang氏がLLMの導入を検討している企業に助言するのは、明確なユースケースのない手の込んだソリューションを構築するのではなく、特定のビジネス上の問題を解決することに焦点を当てることです。彼は、「何かを構築し、問題を探すことに夢中にならない」ように注意を促し、AI投資を戦略的なビジネス目標と一致させることの重要性を強調しました。
ツールボックスの中のツールとしてのAI
Zhang氏は、AIはビジネス上の問題を解決し、顧客に価値を創造するためのツールボックスの中の1つのツールにすぎないと主張しました。彼は、テクノロジーが世界のすべての問題を解決する可能性を誇大宣伝しないよう注意を促し、戦略的に、そして他のソリューションと組み合わせて使用する場合に最も効果的であると強調しました。
ハルシネーションの課題
AIは大きな進歩を遂げましたが、特にLLMが誤った情報やでっち上げられた情報を生成する「ハルシネーション」の領域では、課題が残っています。この分野での進歩にもかかわらず、LLMのハルシネーション率は依然として高く、大手企業の最新モデルでさえエラーが発生しています。この問題は、透明性と、AIモデルがどのように結論に達したかについての洞察をユーザーに提供することの重要性を強調しています。
同共同創業者によれば生成AIにおいてハルシネーションの問題は依然として残っていることを多くの専門家が認めています。同氏は、同社はLLMの「生の思考」や、システムが使用するツール、派生した回答の手段や引用などをユーザーに示すことで透明性を高め支援を行おうとしているとのことです。
競争環境
Cohereは、AI分野で資金力のあるライバルとの激しい競争に直面しています。しかし、Zhang氏は、費用対効果が高くエネルギー効率の高いAIモデルを構築する上では、大きいことが必ずしも良いとは限らないと考えています。彼は、「モデルは、アクセスできるデータとシステムと同じくらい優れている」と主張し、顧客の環境内で完全に実行できるソリューションを構築することの重要性を強調しました。Zhang氏は、Cohereの「急速な成長」を称賛し、この分野の「比較的新しい」性質から、同社が拡大する余地は十分にあると述べました。
収益成長と課題
Cohereの成長は、最近テクノロジーメディアの注目の的となっています。Cohereは、2025年初頭から売上を2倍以上にした後、今月1億米ドル(1億3800万カナダドル)の年間収益に達し、CEOのAidan Gomez氏は最近Bloombergに対し、同社は収益性に「それほど遠くない」と語りました。しかし、The Informationは、これはCohereが2023年に投資家に年間で達成する予定であると語った額より3億5000万米ドル少ないと報じています。収益目標と激しい競争は、Cohereが対処しなければならない課題だけではありません。
著作権侵害訴訟
このAIスタートアップ企業は、ある専門家が潜在的に「前例となる」著作権侵害訴訟を大手メディア企業から受けています。Toronto Star、Condé Nast、Voxなどのメディア組織のグループは、Cohereが同意なしにメディアコンテンツをスクレイピングしてAIモデルのトレーニングに使用し、許可なしにリアルタイムでコンテンツにアクセスし、侵害するアウトプットを作成したと主張しています。Cohereは、同様の訴訟に直面している多くのAIスタートアップ企業の1つにすぎません。Cohereはこれらの主張を否定し、提訴した出版社が事件を「捏造」するために奔走しており、実際的な著作権侵害は発生していないという考えに異議を唱えました。
Zhang氏はこの件についてあまりコメントすることを控え、BetaKitに対しCohereの考え方を詳述したブログ記事を参照するよう指示しました。「私たちはそれについて確信しています」と彼は述べました。
AI実装の課題をより深く掘り下げる
多くの企業は当初、AIが事業を急速に変革し、これまでになかった効率を生み出すと信じて、大きな熱意を持ってAIイニシアチブに乗り出します。しかし、多くの企業は、予想していなかった重大な課題に直面していることに気づきます。これらの困難は、技術的な複雑さから組織的な抵抗まで、さまざまな形で現れる可能性があります。これらの課題を理解することは、AIを正常に実装し、投資に対するプラスのリターンを得ることを期待する企業にとって不可欠です。
技術的な複雑さとデータ要件
企業が頻繁に遭遇する最初のハードルの1つは、AIシステムの技術的な複雑さです。AIモデル、特に深層学習に基づくモデルは、計算負荷が高く、作成、トレーニング、および展開には専門的な知識が必要です。トレーニングデータの品質と量は、AIモデルのパフォーマンスに大きな影響を与えます。巨大なデータセットの収集と準備には、時間とリソースを要するプロセスになる可能性があります。AIプロジェクトは、高品質でラベル付けされたデータの不足によって妨げられる可能性があり、その結果、不正確または偏ったモデルが生成されます。
さらに、AIシステムと既存のITインフラストラクチャとの相互運用性を保証することにより、複雑さが増します。さまざまなAIプラットフォームとフレームワークは、レガシーシステムと互換性がない可能性があり、既存のワークフローとアーキテクチャに大幅な変更が必要になります。AIを複雑な組織環境に統合するには、多くの場合、豊富な経験と、AIテクノロジーと基盤となる商用オペレーションの両方をしっかりと把握する必要があります。
組織的および文化的な障壁
技術的な障害に加えて、組織はAIの採用に対して重大な組織的および文化的なハードルに遭遇する可能性があります。一般的な問題の1つは、労働者がAI主導の変化を受け入れることに消極的であることです。従業員は、雇用の置き換えだけでなく、新しい才能を学び、新しい働き方に適応する必要があることを懸念している可能性があります。労働者からの抵抗は、AIイニシアチブを妨げ、予想される利点の実現を妨げる可能性があります。
さらに、AIの展開には、部門とチーム間のかなりのコラボレーションが必要です。データサイエンティスト、ITプロフェッショナル、ビジネスアナリスト、および主題の専門家は、問題を定義し、AIソリューションを作成し、それらを本番環境に展開するために協力する必要があります。サイロと意思疎通の欠如は、協力関係を阻止し、AIを商用オペレーションに効果的に統合することを妨げる可能性があります。これらの組織的および文化的な障害を克服するには、強力なリーダーシップ、効果的なコミュニケーション、および変更管理への献身が必要です。
倫理的およびガバナンス上の懸念
AIがますます普及するにつれて、倫理的およびガバナンス上の問題がますます重要になります。AIシステムは、偏見を永続させ、不当な判断を下し、人々のプライバシーを侵害する可能性があります。組織は、AIの設計、開発、および展開に関する堅牢な倫理ガイドラインとガバナンス手順を開発することにより、これらの懸念に対処する必要があります。透明性、説明責任、および公平性は、責任あるAIの重要な原則です。
データのプライバシーは、考慮すべき重要な問題です。AIシステムを構築する際には、データプライバシー規則に従う必要があり、望まないアクセスまたは虐待から機密情報を保護するための保護手段を講じる必要があります。組織は、データ収集と使用に関するユーザーの同意を得る必要があり、AIモデルがどのように選択を行っているか about 透明性を提供する必要があります。さらに、組織は、倫理的リスクまたは歓迎されない結果を発見して軽減するために、AIシステムを監視および監査するためのメカニズムを導入する必要があります。
ROIの測定と実証
最終的に、AIプロジェクトの成功は、定量化可能な投資収益率(ROI)を生み出す能力にかかっています。ただし、特にメリットが無形または長期的な場合、AIプロジェクトのROIを判断することは困難な場合があります。組織は、AIイニシアチブの明確な目標と指標を確立し、進捗状況を追跡し、結果を定期的に測定する必要があります。これには、AIが提供すると予想されるビジネス価値と、その価値を達成するために必要なリソースを徹底的に把握する必要があります。
さらに、利害関係者にAIのメリットを伝えることは、AI投資に対する支持を得て信頼を確立するために不可欠です。これには、ユースケースの提示、初期の勝利の披露、およびAIが不可欠なビジネス指標に与える影響の定量化が含まれる場合があります。AIのROIを定量化して示すことに成功するために、企業はパフォーマンスを測定するための明確なフレームワークを作成し、バリュープロポジションを利害関係者に明確に伝える必要があります。
AI採用の未来:バランスの取れた視点
Ivan Zhang氏の洞察は、AIの採用に対するバランスの取れたアプローチの重要性を強調しています。AIの採用は、テクノロジーの可能性を認識しながら、現実的な現実に根ざしたものにする必要があります。AIが進化し続けるにつれて、企業は目に見えるROIを提供し、倫理的な懸念に対処し、既存のワークフローにシームレスに統合されるソリューションの構築に焦点を当てる必要があります。派手なソリューションよりもビジネス上の問題を優先し、AIをツールボックスの中のツールとして見なすことで、組織はAIの真の可能性を解き放ち、意味のあるビジネス成果を上げることができます。