نوآورترین شرکت‌ها در هوش مصنوعی

Nvidia

جستجو برای سیستم‌های هوش مصنوعی پیچیده‌تر، همچنان به سرمایه‌گذاری قابل توجهی از سوی توسعه‌دهندگان مدل‌های زبانی بزرگ ادامه می‌دهد. با این حال، یک شرکت در حال حاضر از ثمرات این انقلاب هوش مصنوعی بهره‌مند است: Nvidia. انویدیا با واحدهای پردازش گرافیکی (GPU) غالب خود، مسابقه هوش مصنوعی را آغاز کرد، اکنون با پردازنده و پلتفرم پیشگامانه Blackwell خود، موقعیت کاملی برای پشتیبانی از دستیابی به هوش در سطح انسانی دارد.

Blackwell از H100 پیشی می‌گیرد و تا 2.5 برابر قدرت بیشتری برای وظایف آموزش مدل عمومی ارائه می‌دهد، در حالی که به طور همزمان انرژی کمتری مصرف می‌کند. اپراتورهای اصلی مراکز داده و آزمایشگاه‌های هوش مصنوعی، از جمله غول‌های صنعت مانند Google، Meta، Microsoft، OpenAI، Tesla و xAI، متعهد به خرید صدها هزار GPU Blackwell شده‌اند.

در حالی که مدل‌های اخیر شرکت‌های چینی مانند DeepSeek و Alibaba با استفاده از GPUهای قدیمی‌تر و کم‌قدرت‌تر Nvidia، قابلیت‌های چشمگیری را نشان داده‌اند، Nvidia به سادگی به موفقیت‌های خود بسنده نمی‌کند. این شرکت به طور فعال در حال توسعه پلتفرم‌هایی برای کاربردهای متنوع، از کشف دارو (Clara for Biopharma) و وسایل نقلیه خودران (Drive AGX) گرفته تا تولید ویدئو (Holoscan) و دوقلوهای دیجیتال (Omniverse) است. انویدیا با تقویت پیشرفت هوش مصنوعی در طیف گسترده‌ای از سناریوهای دنیای واقعی، خود را به طور استراتژیک برای رشد پایدار قرار می‌دهد، حتی اگر مدل‌های آینده وابستگی کمتری به قدرت محاسباتی محض نشان دهند.

OpenAI

از سال 2019، OpenAI به طور مداوم مدل‌های خود را با گسترش داده‌های آموزشی و منابع محاسباتی بهبود بخشیده است، استراتژی‌ای که به طور گسترده در سراسر صنعت پذیرفته شده است. با این حال، با کاهش بازده حاصل از این رویکرد مقیاس‌بندی، OpenAI نیاز به مسیری جدید برای دستیابی به AGI را تشخیص داد – مدل‌هایی که در اکثر وظایف از هوش انسانی پیشی می‌گیرند.

راه حل OpenAI در قالب مدل o1 ارائه شد. OpenAI به جای تمرکز صرف بر افزایش منابع در طول پیش‌آموزش، o1 را مهندسی کرد تا زمان و قدرت محاسباتی بیشتری را در طول استنتاج اختصاص دهد، مرحله‌ای که مدل به طور فعال مستقر شده و به درخواست‌های کاربر پاسخ می‌دهد. در طول این فرآیند، o1 اطلاعات متنی را هم از کاربر و هم از منابع داده مربوطه جمع‌آوری و حفظ می‌کند. این مدل از روش آزمون و خطا برای تعیین مسیر بهینه برای رسیدن به پاسخ استفاده می‌کند. نتیجه، تولید پاسخ‌هایی در سطح دکترا به سوالات پیچیده است که o1 را به صدر رتبه‌بندی‌های معیار عملکرد سوق می‌دهد.

OpenAI نسخه‌های ‘آزمایشی’ و ‘کوچک’ o1 را به مشترکین ChatGPT Plus ارائه می‌دهد. علاوه بر این، یک سرویس ممتاز به نام ChatGPT Pro دسترسی نامحدود به مدل کامل o1 را با قیمت 200 دلار در ماه فراهم می‌کند. در دسامبر 2024، OpenAI از جانشین o1، یعنی o3 رونمایی کرد و در فوریه 2025، به کاربران پولی دسترسی به o3-mini، یک نوع کوچکتر و سریعتر بهینه شده برای علوم، ریاضیات و کدنویسی را اعطا کرد. عمیق‌ترین تأثیر مدل‌های استدلال جدید OpenAI، تأیید افزایش محاسبات در زمان استنتاج به عنوان مسیری امیدوارکننده برای دستیابی به پیشرفت‌های بیشتر در هوش در مسیر رسیدن به AGI است.

Google DeepMind

تحقیقات بنیادی که راه را برای چت‌بات‌های امروزی هموار کرد، در اواخر دهه 2010 در گوگل آغاز شد. گوگل مدت‌ها قبل از ظهور ChatGPT، یک چت‌بات مبتنی بر مدل زبان بزرگ را توسعه داده بود. با این حال، نگرانی‌های مربوط به ایمنی، حریم خصوصی و پیامدهای قانونی، منجر به رویکردی محتاطانه شد و انتشار عمومی آن را به تاخیر انداخت. این تردید باعث شد که گوگل در ابتدا در مسابقه هوش مصنوعی که با راه‌اندازی ChatGPT آغاز شد، عقب بماند.

انتشار Gemini 2.0 گوگل DeepMind در سال 2024 نشان‌دهنده بازگشت قطعی گوگل بود. Gemini 2.0 اولین مدل هوش مصنوعی انبوه است که ذاتاً چندوجهی است و قادر به پردازش و تولید تصاویر، ویدئو، صدا و کد کامپیوتری با همان روانی متن است. این قابلیت به مدل اجازه می‌دهد تا کلیپ‌های ویدئویی یا حتی فیدهای ویدئویی زنده از دوربین تلفن را با سرعت و دقت قابل توجهی تجزیه و تحلیل و استدلال کند.

Gemini همچنین به دلیل توانایی خود در کنترل سایر سرویس‌های گوگل، مانند Maps و Search، متمایز است. این ادغام، مزیت استراتژیک گوگل را نشان می‌دهد که تحقیقات هوش مصنوعی خود را با ابزارهای اطلاعاتی و بهره‌وری تثبیت‌شده‌اش ترکیب می‌کند. Gemini جزو اولین مدل‌های هوش مصنوعی است که عملکرد مستقل و توانایی استدلال در مورد مشکلات پیچیده را از طرف کاربر نشان می‌دهد. مدل Gemini 2.0 Flash Thinking Experimental حتی به کاربران بینشی در مورد فرآیند فکری به کار رفته برای رسیدن به پاسخ ارائه می‌دهد. علاوه بر این، در ماه دسامبر، گوگل Project Mariner را معرفی کرد، یک ویژگی هوش مصنوعی عامل مبتنی بر Gemini که برای انجام کارهایی مانند خرید آنلاین مواد غذایی به صورت مستقل طراحی شده است.

Anthropic

کاربردهای اولیه هوش مصنوعی مولد تاکنون بر نوشتن متن، خلاصه‌سازی و تولید تصویر متمرکز بوده است. گام تکاملی بعدی شامل تجهیز مدل‌های زبان بزرگ به توانایی‌های استدلال و ظرفیت استفاده از ابزارها است. مدل ‘Computer Use’ Anthropic نگاهی اجمالی به این آینده ارائه داد.

با شروع Claude 3.5 Sonnet در سال 2024، مدل Anthropic می‌تواند فعالیت روی صفحه، از جمله محتوای اینترنت را درک کند. این مدل می‌تواند مکان‌نما را دستکاری کند، روی دکمه‌ها کلیک کند و متن را وارد کند. یک ویدیوی نمایشی توانایی Claude را در تکمیل یک فرم با استفاده از اطلاعات موجود در وب‌سایت‌های باز در برگه‌های مرورگر نشان داد. این مدل می‌تواند کارهایی مانند ایجاد یک وب‌سایت شخصی یا سازماندهی تدارکات یک سفر یک روزه را انجام دهد. اقدامات مستقل هوش مصنوعی، مانند باز کردن برگه‌های جدید، انجام جستجوها و پر کردن فیلدهای داده، واقعاً قابل توجه است.

در حالی که این مدل در حال حاضر با سرعت کمتری کار می‌کند و ممکن است همیشه پاسخ صحیح را ارائه ندهد، انتظار می‌رود با شناسایی و رفع محدودیت‌های آن توسط Anthropic، پیشرفت‌های سریعی حاصل شود. Project Mariner گوگل که قبلاً ذکر شد، در ماه دسامبر از Anthropic پیروی کرد و OpenAI مدل استفاده از کامپیوتر خود را با نام Operator در ژانویه 2025 معرفی کرد. در فوریه 2025، Anthropic از نسخه اصلی بعدی خود، Claude 3.7 Sonnet رونمایی کرد، یک مدل بزرگتر که قادر به درگیر کردن خودکار حالت استدلال برای پرس و جوهای چالش برانگیز است.

Microsoft

توسعه مدل‌های Phi مایکروسافت از یک سوال اساسی که توسط محققان این شرکت در سال 2023 مطرح شد، ناشی شد: ‘کوچکترین اندازه مدلی که می‌تواند نشانه‌هایی از هوش نوظهور را نشان دهد، چقدر است؟’ این پرس و جو لحظه‌ای محوری در تکامل ‘مدل‌های زبان کوچک’ بود، مدل‌هایی که برای عملکرد بهینه در سناریوهایی با حافظه، قدرت پردازش یا اتصال محدود، که در آن زمان پاسخ‌دهی سریع بسیار مهم است، طراحی شده‌اند.

در طول سال 2024، مایکروسافت دو نسل از مدل‌های کوچک را منتشر کرد که قابلیت‌های استدلال و منطقی را نشان می‌دادند که به طور صریح در طول آموزش گنجانده نشده بودند. در ماه آوریل، این شرکت مجموعه‌ای از مدل‌های Phi-3 را معرفی کرد که در معیارهای زبان، استدلال، کدنویسی و ریاضیات برتری داشتند، احتمالاً به دلیل آموزش آنها بر روی داده‌های مصنوعی تولید شده توسط LLMهای بسیار بزرگتر و توانمندتر. انواع Phi-3 منبع باز بیش از 4.5 میلیون بار در Hugging Face در طول سال 2024 دانلود شدند.

در اواخر سال 2024، مایکروسافت مدل‌های زبان کوچک Phi-4 خود را راه‌اندازی کرد که از مدل‌های Phi-3 در وظایف متمرکز بر استدلال پیشی گرفتند و حتی از GPT-4o OpenAI در معیارهای GPQA (سوالات علمی) و MATH بهتر عمل کردند. مایکروسافت این مدل را تحت مجوز منبع باز و وزن باز منتشر کرد و به توسعه‌دهندگان این امکان را داد تا مدل‌های لبه یا برنامه‌های کاربردی برای تلفن‌ها یا لپ‌تاپ‌ها ایجاد کنند. در کمتر از یک ماه، Phi-4 375000 بار در Hugging Face دانلود شد.

Amazon

Amazon AWS اخیراً Trainium2، نسخه جدیدی از پردازنده Trainium خود را برای هوش مصنوعی معرفی کرد که به طور بالقوه می‌تواند سلطه GPUهای Nvidia را در تنظیمات خاص به چالش بکشد. Trainium2 برای ارائه قدرت محاسباتی عظیم مورد نیاز برای آموزش بزرگترین مدل‌های هوش مصنوعی مولد و برای عملیات زمان استنتاج پس از استقرار مدل، مهندسی شده است. AWS ادعا می‌کند که Trainium برای کارهای مشابه 30 تا 40 درصد مقرون به صرفه‌تر از GPU است.

Trainium2 کاستی‌های قدرت و یکپارچه‌سازی نرم‌افزاری مشاهده شده در اولین تراشه Trainium را برطرف می‌کند و آمازون را در موقعیتی قرار می‌دهد که به طور بالقوه شکاف با Nvidia را کاهش دهد. (شایان ذکر است که AWS خود همچنان به شدت به Nvidia برای GPU وابسته است.) کنار زدن Nvidia به دلیل قفل شدن مشتری با لایه نرم‌افزاری CUDA Nvidia، که به محققان کنترل دقیقی بر نحوه استفاده مدل‌هایشان از منابع تراشه می‌دهد، چالشی بزرگ است. آمازون لایه نرم‌افزاری کنترل هسته خود را با نام Neuron Kernel Interface (NKI) ارائه می‌دهد که مشابه CUDA، به محققان کنترل دقیقی بر تعاملات هسته تراشه می‌دهد.

مهم است که توجه داشته باشید که Trainium2 هنوز در مقیاس بزرگ آزمایش نشده است. AWS در حال حاضر در حال ساخت یک خوشه سرور با 400000 تراشه Trainium2 برای Anthropic است که می‌تواند بینش‌های ارزشمندی در مورد بهینه‌سازی عملکرد تراشه‌های هوش مصنوعی خود در استقرارهای در مقیاس بزرگ ارائه دهد.

Arm

طراح نیمه‌هادی بریتانیایی Arm مدت‌هاست که ارائه‌دهنده اصلی معماری مورد استفاده در تراشه‌هایی است که دستگاه‌های کوچک مانند تلفن‌ها، حسگرها و سخت‌افزار IoT را تامین می‌کنند. این نقش در عصر نوظهوری که تراشه‌های دستگاه‌های لبه مدل‌های هوش مصنوعی را اجرا می‌کنند، اهمیت بیشتری پیدا می‌کند. مراکز داده نیز نقش مهمی در این تکامل ایفا خواهند کرد، که اغلب برخی یا تمام پردازش‌های هوش مصنوعی را انجام می‌دهند و نتایج را به دستگاه‌های لبه ارائه می‌دهند.

با گسترش مراکز داده در سطح جهان، مصرف برق آنها به یک نگرانی فزاینده تبدیل خواهد شد. این عامل به تاکید بر کارایی در آخرین معماری CPU Neoverse Arm کمک می‌کند. به گفته این شرکت، این معماری 50 درصد بهبود عملکرد نسبت به نسل‌های قبلی و 20 درصد عملکرد بهتر در هر وات در مقایسه با پردازنده‌هایی که از معماری‌های x86 رقیب استفاده می‌کنند، دارد.

Arm گزارش می‌دهد که Amazon، Microsoft، Google و Oracle همگی Arm Neoverse را هم برای محاسبات عمومی و هم برای استنتاج و آموزش هوش مصنوعی مبتنی بر CPU پذیرفته‌اند. به عنوان مثال، در سال 2024، مایکروسافت اعلام کرد که اولین سیلیکون سفارشی خود را که برای ابر طراحی شده است، پردازنده Cobalt 100، بر روی Arm Neoverse ساخته شده است. برخی از بزرگترین مراکز داده هوش مصنوعی به Grace Hopper Superchip NVIDIA متکی خواهند بود که یک GPU Hopper و یک CPU Grace مبتنی بر Neoverse را ترکیب می‌کند. Arm قرار است CPU خود را در سال جاری عرضه کند و Meta یکی از مشتریان اولیه آن است.

Gretel

در طول سال گذشته، شرکت‌های هوش مصنوعی بازدهی کاهشی را از آموزش مدل‌های خود با حجم فزاینده‌ای از داده‌های استخراج شده از وب تجربه کرده‌اند. در نتیجه، آنها تمرکز خود را از کمیت محض داده‌های آموزشی به کیفیت آن تغییر داده‌اند. این امر منجر به افزایش سرمایه‌گذاری در محتوای غیرعمومی و تخصصی شده است که از شرکای ناشر مجوز گرفته شده است. محققان هوش مصنوعی همچنین باید شکاف‌ها یا نقاط کور را در داده‌های آموزشی تولید شده توسط انسان یا حاشیه‌نویسی شده توسط انسان برطرف کنند. برای این منظور، آنها به طور فزاینده‌ای به داده‌های آموزشی مصنوعی تولید شده توسط مدل‌های هوش مصنوعی تخصصی روی آورده‌اند.

Gretel در سال 2024 با تخصص در ایجاد و مدیریت داده‌های آموزشی مصنوعی به شهرت رسید. این شرکت در دسترس بودن عمومی محصول شاخص خود، Gretel Navigator را اعلام کرد که به توسعه‌دهندگان اجازه می‌دهد تا از زبان طبیعی یا درخواست‌های SQL برای تولید، تقویت، ویرایش و مدیریت مجموعه داده‌های آموزشی مصنوعی برای تنظیم دقیق و آزمایش استفاده کنند. این پلتفرم در حال حاضر جامعه‌ای متشکل از بیش از 150000 توسعه‌دهنده را جذب کرده است که بیش از 350 میلیارد قطعه داده آموزشی را سنتز کرده‌اند.

سایر بازیگران صنعت متوجه قابلیت‌های Gretel شده‌اند. Gretel با گوگل همکاری کرد تا داده‌های آموزشی مصنوعی خود را به راحتی در دسترس مشتریان Google Cloud قرار دهد. شراکت مشابهی با Databricks در ماه ژوئن اعلام شد که به مشتریان سازمانی Databricks دسترسی به داده‌های آموزشی مصنوعی برای مدل‌های خود که در ابر Databricks اجرا می‌شوند، می‌دهد.

Mistral AI

Mistral AI، رقیب فرانسوی در عرصه هوش مصنوعی مولد، به طور مداوم بر OpenAI، Anthropic و Google در خط مقدم توسعه مدل هوش مصنوعی پیشرفته فشار وارد کرده است. Mistral AI مجموعه‌ای از مدل‌های جدید را منتشر کرد که پیشرفت‌های تکنولوژیکی قابل توجهی را در سال 2024 در بر می‌گرفتند و رشد سریع کسب‌وکار را هم از طریق بازاریابی مستقیم APIهای خود و هم از طریق مشارکت‌های استراتژیک نشان داد.

در اوایل سال، این شرکت یک جفت مدل منبع باز به نام Mixtral را معرفی کرد که به دلیل استفاده نوآورانه از معماری ‘مخلوط متخصصان’ قابل توجه است، جایی که تنها زیرمجموعه تخصصی از پارامترهای مدل برای رسیدگی به یک پرس و جو درگیر می‌شوند و کارایی را افزایش می‌دهند. در جولای 2024، Mistral Mistral Large 2 را معرفی کرد که با 123 میلیارد پارامتر، پیشرفت‌های قابل توجهی در تولید کد، ریاضیات، استدلال و فراخوانی تابع نشان داد. این شرکت فرانسوی همچنین Ministral 3B و Ministral 8B را منتشر کرد، مدل‌های کوچکتری که برای اجرا بر روی لپ‌تاپ‌ها یا تلفن‌ها طراحی شده‌اند و قادر به ذخیره تقریباً 50 صفحه متنی اطلاعات متنی ارائه شده توسط کاربر هستند.

Mistral با قرار دادن خود به عنوان یک جایگزین کم‌هزینه و انعطاف‌پذیر برای شرکت‌های هوش مصنوعی ایالات متحده مانند OpenAI، در اروپا به موفقیت دست یافته است. همچنین در طول سال 2024 به گسترش خود در بازار سازمانی ایالات متحده ادامه داد. در ماه ژوئن، این شرکت یک دور سرمایه‌گذاری 640 میلیون دلاری را به رهبری شرکت سرمایه‌گذاری خطرپذیر General Catalyst تضمین کرد که ارزش Mistral را به تقریباً 6.2 میلیارد دلار رساند.

Fireworks AI

Fireworks یک محیط زمان اجرا سفارشی ارائه می‌دهد که کار مهندسی اغلب پیچیده مرتبط با ساخت زیرساخت برای استقرار هوش مصنوعی را ساده می‌کند. با استفاده از پلتفرم Fireworks، شرکت‌ها می‌توانند هر یک از بیش از 100 مدل هوش مصنوعی را ادغام کرده و سپس آنها را برای موارد استفاده خاص خود سفارشی و تنظیم دقیق کنند.

این شرکت محصولات جدیدی را در طول سال 2024 معرفی کرد که آن را در موقعیتی قرار می‌دهد تا از روندهای کلیدی در صنعت هوش مصنوعی سرمایه‌گذاری کند. اول، توسعه‌دهندگان به طور فزاینده‌ای بر پاسخگویی مدل‌ها و برنامه‌های کاربردی مبتنی بر هوش مصنوعی متمرکز شده‌اند. Fireworks FireAttention V2، نرم‌افزار بهینه‌سازی و کمی‌سازی را معرفی کرد که عملکرد مدل را تسریع می‌کند و تأخیر شبکه را کاهش می‌دهد. دوم، سیستم‌های هوش مصنوعی به طور فزاینده‌ای در حال تکامل به ‘خطوط لوله’ هستند که مدل‌ها و ابزارهای مختلف را از طریق API فراخوانی می‌کنند. نرم‌افزار جدید FireFunction V2 به عنوان یک هماهنگ‌کننده برای همه اجزای درون این سیستم‌های به طور فزاینده پیچیده عمل می‌کند، به ویژه زمانی که شرکت‌ها برنامه‌های کاربردی هوش مصنوعی مستقل‌تری را مستقر می‌کنند.

Fireworks گزارش می‌دهد که رشد درآمد 600 درصدی در سال 2024 داشته است. پایگاه مشتریان آن شامل شرکت‌های برجسته‌ای مانند Verizon، DoorDash، Uber، Quora و Upwork است.

Snorkel AI

شرکت‌ها متوجه شده‌اند که اثربخشی سیستم‌های هوش مصنوعی آنها مستقیماً با کیفیت داده‌های آنها مرتبط است. Snorkel AI با کمک به شرکت‌ها در آماده‌سازی داده‌های اختصاصی خود برای استفاده در مدل‌های هوش مصنوعی، کسب‌وکار پررونقی ایجاد کرده است. پلتفرم توسعه داده هوش مصنوعی Snorkel Flow این شرکت روشی مقرون‌به‌صرفه برای شرکت‌ها فراهم می‌کند تا داده‌های اختصاصی خود را برچسب‌گذاری و مدیریت کنند و امکان استفاده از آن را در سفارشی‌سازی و ارزیابی مدل‌های هوش مصنوعی برای نیازهای تجاری خاص خود فراهم می‌کند.

در سال 2024، Snorkel پشتیبانی خود را برای شامل تصاویر گسترش داد و به شرکت‌ها اجازه داد تا مدل‌های هوش مصنوعی چندوجهی و تولیدکننده‌های تصویر را با استفاده از تصاویر اختصاصی خود آموزش دهند. همچنین تولید تقویت‌شده بازیابی (RAG) را در پلتفرم خود گنجانده است و به مشتریان امکان می‌دهد تنها مرتبط‌ترین بخش‌های اطلاعات را از اسناد طولانی، مانند محتوای پایگاه دانش اختصاصی، برای استفاده در آموزش هوش مصنوعی بازیابی کنند. Snorkel Custom، یک سطح خدمات جدید و با لمس بالاتر، شامل کارشناسان یادگیری ماشین Snorkel است که مستقیماً با مشتریان در پروژه‌ها همکاری می‌کنند.

Snorkel بیان می‌کند که رزروهای سالانه سال به سال آن در طول سال 2024 دو برابر شده است، با رشد سه رقمی در رزروهای سالانه برای هر یک از سه سال گذشته. به گفته این شرکت، شش بانک از بزرگترین بانک‌ها اکنون از Snorkel Flow استفاده می‌کنند، همراه با برندهایی مانند Chubb، Wayfair و Experian.

CalypsoAI

از آنجایی که هوش مصنوعی نقش فزاینده‌ای در فرآیندهای تصمیم‌گیری حیاتی ایفا می‌کند، شرکت‌ها به دنبال دید بیشتر در مورد عملکرد داخلی مدل‌ها هستند. این نیاز به ویژه در صنایع تحت نظارت که باید به طور مداوم برای سوگیری و سایر خروجی‌های ناخواسته نظارت کنند، مشهود است. CalypsoAI جزو اولین کسانی بود که این نیاز نوظهور را تشخیص داد و به سرعت با ویژگی‌های توضیحی پیشرفته در پلتفرم زیرساخت هوش مصنوعی خود پاسخ داد.

آنچه Calypso را متمایز می‌کند، وسعت فناوری مشاهده‌پذیری آن است. در سال 2024، این شرکت پلتفرم امنیت هوش مصنوعی خود را راه‌اندازی کرد که با ایمن‌سازی، حسابرسی و نظارت بر تمام مدل‌های هوش مصنوعی مولد فعال که یک شرکت ممکن است از آنها استفاده کند، صرف نظر از فروشنده مدل یا اینکه آیا مدل به صورت داخلی یا خارجی میزبانی می‌شود، از داده‌های سازمانی محافظت می‌کند. Calypso همچنین ابزارهای تجسم جدیدی را معرفی کرد که به کاربران اجازه می‌دهد منطق زیربنایی تصمیمات هوش مصنوعی را در زمان واقعی مشاهده کنند.

بازار به تاکید Calypso بر مشاهده‌پذیری هوش مصنوعی پاسخ مثبت می‌دهد. این شرکت از افزایش ده برابری درآمد در طول سال 2024 خبر می‌دهد و پیش‌بینی می‌کند که در سال 2025 افزایش پنج برابری دیگری داشته باشد.

Galileo

در حالی که سیستم‌های هوش مصنوعی در مقایسه با یک سال پیش، موارد کمتری از توهمات واقعی و سوگیری‌ها را نشان می‌دهند، اما همچنان مستعد این مسائل هستند. این امر نگرانی قابل توجهی برای هر کسب‌وکاری است که از هوش مصنوعی استفاده می‌کند، به ویژه آنهایی که در بخش‌های تحت نظارت مانند مراقبت‌های بهداشتی و بانکداری هستند. تیم‌های توسعه هوش مصنوعی از پلتفرم هوش مصنوعی Galileo برای اندازه‌گیری، بهینه‌سازی و نظارت بر دقت مدل‌ها و برنامه‌های کاربردی خود استفاده می‌کنند.

در اوایل سال 2024، پس از دو سال تحقیق، Galileo Luna را منتشر کرد، مجموعه‌ای از مدل‌های ارزیابی که برای شناسایی خروجی‌های مضر آموزش دیده‌اند. این مدل‌ها به پلتفرم Galileo اجازه می‌دهند تا به سرعت کار یک LLM را در حین جمع‌آوری توکن‌هایی که پاسخ آن را تشکیل می‌دهند، بررسی و امتیازدهی کند. این فرآیند تقریباً 200 میلی‌ثانیه طول می‌کشد و زمان کافی برای پرچم‌گذاری و جلوگیری از نمایش خروجی هوش مصنوعی به کاربر را می‌دهد. در حالی که یک LLM استاندارد می‌تواند این کار را انجام دهد، بسیار گران‌تر خواهد بود. مدل‌های هدفمند Galileo دقت، مقرون‌به‌صرفگی و مهم‌تر از همه، سرعت بالاتری را ارائه می‌دهند.

Galileo گزارش می‌دهد که پایگاه مشتریان خود را در سال 2024 چهار برابر کرده است، با مشتریانی از جمله Twilio، Reddit، Chegg، Comcast و JPMorgan Chase. این استارت‌آپ همچنین یک دور سرمایه‌گذاری 68 میلیون دلاری را از سرمایه‌گذارانی مانند Clément Delangue، مدیرعامل Hugging Face، تضمین کرد.

Runway

یکی از مهم‌ترین آرزوها—و اضطراب‌ها—در مورد هوش مصنوعی، پتانسیل آن برای تولید ویدئویی با کیفیت کافی برای متحول کردن هنر و اقتصاد فیلمسازی است. این فناوری در سال 2024 گام‌های مهمی به سوی این آینده برداشت و Runway، یک استارت‌آپ تولید ویدئو مستقر در نیویورک، نقش پیشرو را ایفا کرد. انتشار مدل Gen-3 Alpha Runway در ژوئن 2024 به دلیل بهبود قابل توجه باورپذیری ویدئوی تولید شده، مورد تحسین گسترده جامعه هوش مصنوعی قرار گرفت.

Runway همچنین پیشرفت‌های عمده‌ای را در ابزارهای خود برای کنترل زیبایی‌شناسی ویدئوی هوش مصنوعی پیاده‌سازی کرد. این مدل هم بر روی تصاویر و هم بر روی ویدئو آموزش داده شده است و می‌تواند ویدئو را بر اساس ورودی‌های متنی یا تصویری تولید کند. این شرکت متعاقباً Gen-3 Alpha Turbo، نسخه مقرون‌به‌صرفه‌تر و سریع‌تر Gen-3 را منتشر کرد.

هالیوود از نزدیک پیشرفت هوش مصنوعی مولد را زیر نظر داشته است و Runway گزارش می‌دهد که تولید نسخه‌های سفارشی مدل‌های خود را برای بازیگران صنعت سرگرمی آغاز کرده است. این شرکت در سپتامبر 2024 با Lionsgate Studios وارد یک شراکت رسمی شد. Runway یک مدل سفارشی برای شرکت تولیدی ایجاد کرد و آن را بر روی کاتالوگ فیلم Lionsgate آموزش داد. Runway بیان می‌کند که این مدل برای کمک به فیلمسازان، کارگردانان و سایر افراد خلاق Lionsgate در ‘تقویت’ کارشان و در عین حال ‘صرفه‌جویی در زمان، پول و منابع’ در نظر گرفته شده است. Runway معتقد است که توافق آن با Lionsgate می‌تواند به عنوان الگویی برای همکاری‌های مشابه با سایر شرکت‌های تولیدی عمل کند.

Cerebras Systems

سیستم‌های هوش مصنوعی، به ویژه مدل‌های پیشرفته بزرگ، برای کار در مقیاس بزرگ به قدرت محاسباتی عظیمی نیاز دارند. این امر مستلزم اتصال هزاران یا میلیون‌ها تراشه برای توزیع بار کاری است. با این حال، اتصالات شبکه بین تراشه‌ها می‌تواند باعث ایجاد گلوگاه‌های عملکرد شود. فناوری Cerebras Systems برای مهار مزایای سرعت و کارایی ادغام مقدار زیادی از قدرت محاسباتی بر روی یک تراشه واحد و فوق‌العاده بزرگ طراحی شده است.

به عنوان مثال، آخرین تراشه WSE-3 (Wafer Scale Engine نسل سوم) این شرکت، 814 میلی‌متر مربع، به اندازه یک بشقاب شام، و 56 برابر بزرگتر از تراشه‌های H100 پیشرو در بازار Nvidia است. این تراشه دارای 4 تریلیون ترانزیستور است و 44 گیگابیت حافظه ارائه می‌دهد. این تراشه‌ها می‌توانند برای تشکیل ابررایانه‌ها، مانند Condor Galaxy، ‘صورت فلکی’ از ابررایانه‌های به هم پیوسته که Cerebras با همکاری بزرگترین مشتری خود، G42، یک شرکت هوش مصنوعی و رایانش ابری مستقر در امارات متحده عربی، در حال توسعه است، خوشه‌بندی شوند.

تا به امروز، Cerebras جایگاهی در سازمان‌های تحقیقاتی بزرگ، از جمله Mayo Clinic، Sandia National Laboratories، Lawrence Livermore National Laboratory و Los Alamos National Laboratory پیدا کرده است. این شرکت در سپتامبر 2024 برای IPO درخواست داد. این چشم‌انداز نشان می‌دهد که فروش این شرکت بیش از سه برابر شده و به 78.7 میلیون دلار در سال 2023 رسیده و در نیمه اول سال 2024 به 136.4 میلیون دلار رسیده است.