Nvidia
جستجو برای سیستمهای هوش مصنوعی پیچیدهتر، همچنان به سرمایهگذاری قابل توجهی از سوی توسعهدهندگان مدلهای زبانی بزرگ ادامه میدهد. با این حال، یک شرکت در حال حاضر از ثمرات این انقلاب هوش مصنوعی بهرهمند است: Nvidia. انویدیا با واحدهای پردازش گرافیکی (GPU) غالب خود، مسابقه هوش مصنوعی را آغاز کرد، اکنون با پردازنده و پلتفرم پیشگامانه Blackwell خود، موقعیت کاملی برای پشتیبانی از دستیابی به هوش در سطح انسانی دارد.
Blackwell از H100 پیشی میگیرد و تا 2.5 برابر قدرت بیشتری برای وظایف آموزش مدل عمومی ارائه میدهد، در حالی که به طور همزمان انرژی کمتری مصرف میکند. اپراتورهای اصلی مراکز داده و آزمایشگاههای هوش مصنوعی، از جمله غولهای صنعت مانند Google، Meta، Microsoft، OpenAI، Tesla و xAI، متعهد به خرید صدها هزار GPU Blackwell شدهاند.
در حالی که مدلهای اخیر شرکتهای چینی مانند DeepSeek و Alibaba با استفاده از GPUهای قدیمیتر و کمقدرتتر Nvidia، قابلیتهای چشمگیری را نشان دادهاند، Nvidia به سادگی به موفقیتهای خود بسنده نمیکند. این شرکت به طور فعال در حال توسعه پلتفرمهایی برای کاربردهای متنوع، از کشف دارو (Clara for Biopharma) و وسایل نقلیه خودران (Drive AGX) گرفته تا تولید ویدئو (Holoscan) و دوقلوهای دیجیتال (Omniverse) است. انویدیا با تقویت پیشرفت هوش مصنوعی در طیف گستردهای از سناریوهای دنیای واقعی، خود را به طور استراتژیک برای رشد پایدار قرار میدهد، حتی اگر مدلهای آینده وابستگی کمتری به قدرت محاسباتی محض نشان دهند.
OpenAI
از سال 2019، OpenAI به طور مداوم مدلهای خود را با گسترش دادههای آموزشی و منابع محاسباتی بهبود بخشیده است، استراتژیای که به طور گسترده در سراسر صنعت پذیرفته شده است. با این حال، با کاهش بازده حاصل از این رویکرد مقیاسبندی، OpenAI نیاز به مسیری جدید برای دستیابی به AGI را تشخیص داد – مدلهایی که در اکثر وظایف از هوش انسانی پیشی میگیرند.
راه حل OpenAI در قالب مدل o1 ارائه شد. OpenAI به جای تمرکز صرف بر افزایش منابع در طول پیشآموزش، o1 را مهندسی کرد تا زمان و قدرت محاسباتی بیشتری را در طول استنتاج اختصاص دهد، مرحلهای که مدل به طور فعال مستقر شده و به درخواستهای کاربر پاسخ میدهد. در طول این فرآیند، o1 اطلاعات متنی را هم از کاربر و هم از منابع داده مربوطه جمعآوری و حفظ میکند. این مدل از روش آزمون و خطا برای تعیین مسیر بهینه برای رسیدن به پاسخ استفاده میکند. نتیجه، تولید پاسخهایی در سطح دکترا به سوالات پیچیده است که o1 را به صدر رتبهبندیهای معیار عملکرد سوق میدهد.
OpenAI نسخههای ‘آزمایشی’ و ‘کوچک’ o1 را به مشترکین ChatGPT Plus ارائه میدهد. علاوه بر این، یک سرویس ممتاز به نام ChatGPT Pro دسترسی نامحدود به مدل کامل o1 را با قیمت 200 دلار در ماه فراهم میکند. در دسامبر 2024، OpenAI از جانشین o1، یعنی o3 رونمایی کرد و در فوریه 2025، به کاربران پولی دسترسی به o3-mini، یک نوع کوچکتر و سریعتر بهینه شده برای علوم، ریاضیات و کدنویسی را اعطا کرد. عمیقترین تأثیر مدلهای استدلال جدید OpenAI، تأیید افزایش محاسبات در زمان استنتاج به عنوان مسیری امیدوارکننده برای دستیابی به پیشرفتهای بیشتر در هوش در مسیر رسیدن به AGI است.
Google DeepMind
تحقیقات بنیادی که راه را برای چتباتهای امروزی هموار کرد، در اواخر دهه 2010 در گوگل آغاز شد. گوگل مدتها قبل از ظهور ChatGPT، یک چتبات مبتنی بر مدل زبان بزرگ را توسعه داده بود. با این حال، نگرانیهای مربوط به ایمنی، حریم خصوصی و پیامدهای قانونی، منجر به رویکردی محتاطانه شد و انتشار عمومی آن را به تاخیر انداخت. این تردید باعث شد که گوگل در ابتدا در مسابقه هوش مصنوعی که با راهاندازی ChatGPT آغاز شد، عقب بماند.
انتشار Gemini 2.0 گوگل DeepMind در سال 2024 نشاندهنده بازگشت قطعی گوگل بود. Gemini 2.0 اولین مدل هوش مصنوعی انبوه است که ذاتاً چندوجهی است و قادر به پردازش و تولید تصاویر، ویدئو، صدا و کد کامپیوتری با همان روانی متن است. این قابلیت به مدل اجازه میدهد تا کلیپهای ویدئویی یا حتی فیدهای ویدئویی زنده از دوربین تلفن را با سرعت و دقت قابل توجهی تجزیه و تحلیل و استدلال کند.
Gemini همچنین به دلیل توانایی خود در کنترل سایر سرویسهای گوگل، مانند Maps و Search، متمایز است. این ادغام، مزیت استراتژیک گوگل را نشان میدهد که تحقیقات هوش مصنوعی خود را با ابزارهای اطلاعاتی و بهرهوری تثبیتشدهاش ترکیب میکند. Gemini جزو اولین مدلهای هوش مصنوعی است که عملکرد مستقل و توانایی استدلال در مورد مشکلات پیچیده را از طرف کاربر نشان میدهد. مدل Gemini 2.0 Flash Thinking Experimental حتی به کاربران بینشی در مورد فرآیند فکری به کار رفته برای رسیدن به پاسخ ارائه میدهد. علاوه بر این، در ماه دسامبر، گوگل Project Mariner را معرفی کرد، یک ویژگی هوش مصنوعی عامل مبتنی بر Gemini که برای انجام کارهایی مانند خرید آنلاین مواد غذایی به صورت مستقل طراحی شده است.
Anthropic
کاربردهای اولیه هوش مصنوعی مولد تاکنون بر نوشتن متن، خلاصهسازی و تولید تصویر متمرکز بوده است. گام تکاملی بعدی شامل تجهیز مدلهای زبان بزرگ به تواناییهای استدلال و ظرفیت استفاده از ابزارها است. مدل ‘Computer Use’ Anthropic نگاهی اجمالی به این آینده ارائه داد.
با شروع Claude 3.5 Sonnet در سال 2024، مدل Anthropic میتواند فعالیت روی صفحه، از جمله محتوای اینترنت را درک کند. این مدل میتواند مکاننما را دستکاری کند، روی دکمهها کلیک کند و متن را وارد کند. یک ویدیوی نمایشی توانایی Claude را در تکمیل یک فرم با استفاده از اطلاعات موجود در وبسایتهای باز در برگههای مرورگر نشان داد. این مدل میتواند کارهایی مانند ایجاد یک وبسایت شخصی یا سازماندهی تدارکات یک سفر یک روزه را انجام دهد. اقدامات مستقل هوش مصنوعی، مانند باز کردن برگههای جدید، انجام جستجوها و پر کردن فیلدهای داده، واقعاً قابل توجه است.
در حالی که این مدل در حال حاضر با سرعت کمتری کار میکند و ممکن است همیشه پاسخ صحیح را ارائه ندهد، انتظار میرود با شناسایی و رفع محدودیتهای آن توسط Anthropic، پیشرفتهای سریعی حاصل شود. Project Mariner گوگل که قبلاً ذکر شد، در ماه دسامبر از Anthropic پیروی کرد و OpenAI مدل استفاده از کامپیوتر خود را با نام Operator در ژانویه 2025 معرفی کرد. در فوریه 2025، Anthropic از نسخه اصلی بعدی خود، Claude 3.7 Sonnet رونمایی کرد، یک مدل بزرگتر که قادر به درگیر کردن خودکار حالت استدلال برای پرس و جوهای چالش برانگیز است.
Microsoft
توسعه مدلهای Phi مایکروسافت از یک سوال اساسی که توسط محققان این شرکت در سال 2023 مطرح شد، ناشی شد: ‘کوچکترین اندازه مدلی که میتواند نشانههایی از هوش نوظهور را نشان دهد، چقدر است؟’ این پرس و جو لحظهای محوری در تکامل ‘مدلهای زبان کوچک’ بود، مدلهایی که برای عملکرد بهینه در سناریوهایی با حافظه، قدرت پردازش یا اتصال محدود، که در آن زمان پاسخدهی سریع بسیار مهم است، طراحی شدهاند.
در طول سال 2024، مایکروسافت دو نسل از مدلهای کوچک را منتشر کرد که قابلیتهای استدلال و منطقی را نشان میدادند که به طور صریح در طول آموزش گنجانده نشده بودند. در ماه آوریل، این شرکت مجموعهای از مدلهای Phi-3 را معرفی کرد که در معیارهای زبان، استدلال، کدنویسی و ریاضیات برتری داشتند، احتمالاً به دلیل آموزش آنها بر روی دادههای مصنوعی تولید شده توسط LLMهای بسیار بزرگتر و توانمندتر. انواع Phi-3 منبع باز بیش از 4.5 میلیون بار در Hugging Face در طول سال 2024 دانلود شدند.
در اواخر سال 2024، مایکروسافت مدلهای زبان کوچک Phi-4 خود را راهاندازی کرد که از مدلهای Phi-3 در وظایف متمرکز بر استدلال پیشی گرفتند و حتی از GPT-4o OpenAI در معیارهای GPQA (سوالات علمی) و MATH بهتر عمل کردند. مایکروسافت این مدل را تحت مجوز منبع باز و وزن باز منتشر کرد و به توسعهدهندگان این امکان را داد تا مدلهای لبه یا برنامههای کاربردی برای تلفنها یا لپتاپها ایجاد کنند. در کمتر از یک ماه، Phi-4 375000 بار در Hugging Face دانلود شد.
Amazon
Amazon AWS اخیراً Trainium2، نسخه جدیدی از پردازنده Trainium خود را برای هوش مصنوعی معرفی کرد که به طور بالقوه میتواند سلطه GPUهای Nvidia را در تنظیمات خاص به چالش بکشد. Trainium2 برای ارائه قدرت محاسباتی عظیم مورد نیاز برای آموزش بزرگترین مدلهای هوش مصنوعی مولد و برای عملیات زمان استنتاج پس از استقرار مدل، مهندسی شده است. AWS ادعا میکند که Trainium برای کارهای مشابه 30 تا 40 درصد مقرون به صرفهتر از GPU است.
Trainium2 کاستیهای قدرت و یکپارچهسازی نرمافزاری مشاهده شده در اولین تراشه Trainium را برطرف میکند و آمازون را در موقعیتی قرار میدهد که به طور بالقوه شکاف با Nvidia را کاهش دهد. (شایان ذکر است که AWS خود همچنان به شدت به Nvidia برای GPU وابسته است.) کنار زدن Nvidia به دلیل قفل شدن مشتری با لایه نرمافزاری CUDA Nvidia، که به محققان کنترل دقیقی بر نحوه استفاده مدلهایشان از منابع تراشه میدهد، چالشی بزرگ است. آمازون لایه نرمافزاری کنترل هسته خود را با نام Neuron Kernel Interface (NKI) ارائه میدهد که مشابه CUDA، به محققان کنترل دقیقی بر تعاملات هسته تراشه میدهد.
مهم است که توجه داشته باشید که Trainium2 هنوز در مقیاس بزرگ آزمایش نشده است. AWS در حال حاضر در حال ساخت یک خوشه سرور با 400000 تراشه Trainium2 برای Anthropic است که میتواند بینشهای ارزشمندی در مورد بهینهسازی عملکرد تراشههای هوش مصنوعی خود در استقرارهای در مقیاس بزرگ ارائه دهد.
Arm
طراح نیمههادی بریتانیایی Arm مدتهاست که ارائهدهنده اصلی معماری مورد استفاده در تراشههایی است که دستگاههای کوچک مانند تلفنها، حسگرها و سختافزار IoT را تامین میکنند. این نقش در عصر نوظهوری که تراشههای دستگاههای لبه مدلهای هوش مصنوعی را اجرا میکنند، اهمیت بیشتری پیدا میکند. مراکز داده نیز نقش مهمی در این تکامل ایفا خواهند کرد، که اغلب برخی یا تمام پردازشهای هوش مصنوعی را انجام میدهند و نتایج را به دستگاههای لبه ارائه میدهند.
با گسترش مراکز داده در سطح جهان، مصرف برق آنها به یک نگرانی فزاینده تبدیل خواهد شد. این عامل به تاکید بر کارایی در آخرین معماری CPU Neoverse Arm کمک میکند. به گفته این شرکت، این معماری 50 درصد بهبود عملکرد نسبت به نسلهای قبلی و 20 درصد عملکرد بهتر در هر وات در مقایسه با پردازندههایی که از معماریهای x86 رقیب استفاده میکنند، دارد.
Arm گزارش میدهد که Amazon، Microsoft، Google و Oracle همگی Arm Neoverse را هم برای محاسبات عمومی و هم برای استنتاج و آموزش هوش مصنوعی مبتنی بر CPU پذیرفتهاند. به عنوان مثال، در سال 2024، مایکروسافت اعلام کرد که اولین سیلیکون سفارشی خود را که برای ابر طراحی شده است، پردازنده Cobalt 100، بر روی Arm Neoverse ساخته شده است. برخی از بزرگترین مراکز داده هوش مصنوعی به Grace Hopper Superchip NVIDIA متکی خواهند بود که یک GPU Hopper و یک CPU Grace مبتنی بر Neoverse را ترکیب میکند. Arm قرار است CPU خود را در سال جاری عرضه کند و Meta یکی از مشتریان اولیه آن است.
Gretel
در طول سال گذشته، شرکتهای هوش مصنوعی بازدهی کاهشی را از آموزش مدلهای خود با حجم فزایندهای از دادههای استخراج شده از وب تجربه کردهاند. در نتیجه، آنها تمرکز خود را از کمیت محض دادههای آموزشی به کیفیت آن تغییر دادهاند. این امر منجر به افزایش سرمایهگذاری در محتوای غیرعمومی و تخصصی شده است که از شرکای ناشر مجوز گرفته شده است. محققان هوش مصنوعی همچنین باید شکافها یا نقاط کور را در دادههای آموزشی تولید شده توسط انسان یا حاشیهنویسی شده توسط انسان برطرف کنند. برای این منظور، آنها به طور فزایندهای به دادههای آموزشی مصنوعی تولید شده توسط مدلهای هوش مصنوعی تخصصی روی آوردهاند.
Gretel در سال 2024 با تخصص در ایجاد و مدیریت دادههای آموزشی مصنوعی به شهرت رسید. این شرکت در دسترس بودن عمومی محصول شاخص خود، Gretel Navigator را اعلام کرد که به توسعهدهندگان اجازه میدهد تا از زبان طبیعی یا درخواستهای SQL برای تولید، تقویت، ویرایش و مدیریت مجموعه دادههای آموزشی مصنوعی برای تنظیم دقیق و آزمایش استفاده کنند. این پلتفرم در حال حاضر جامعهای متشکل از بیش از 150000 توسعهدهنده را جذب کرده است که بیش از 350 میلیارد قطعه داده آموزشی را سنتز کردهاند.
سایر بازیگران صنعت متوجه قابلیتهای Gretel شدهاند. Gretel با گوگل همکاری کرد تا دادههای آموزشی مصنوعی خود را به راحتی در دسترس مشتریان Google Cloud قرار دهد. شراکت مشابهی با Databricks در ماه ژوئن اعلام شد که به مشتریان سازمانی Databricks دسترسی به دادههای آموزشی مصنوعی برای مدلهای خود که در ابر Databricks اجرا میشوند، میدهد.
Mistral AI
Mistral AI، رقیب فرانسوی در عرصه هوش مصنوعی مولد، به طور مداوم بر OpenAI، Anthropic و Google در خط مقدم توسعه مدل هوش مصنوعی پیشرفته فشار وارد کرده است. Mistral AI مجموعهای از مدلهای جدید را منتشر کرد که پیشرفتهای تکنولوژیکی قابل توجهی را در سال 2024 در بر میگرفتند و رشد سریع کسبوکار را هم از طریق بازاریابی مستقیم APIهای خود و هم از طریق مشارکتهای استراتژیک نشان داد.
در اوایل سال، این شرکت یک جفت مدل منبع باز به نام Mixtral را معرفی کرد که به دلیل استفاده نوآورانه از معماری ‘مخلوط متخصصان’ قابل توجه است، جایی که تنها زیرمجموعه تخصصی از پارامترهای مدل برای رسیدگی به یک پرس و جو درگیر میشوند و کارایی را افزایش میدهند. در جولای 2024، Mistral Mistral Large 2 را معرفی کرد که با 123 میلیارد پارامتر، پیشرفتهای قابل توجهی در تولید کد، ریاضیات، استدلال و فراخوانی تابع نشان داد. این شرکت فرانسوی همچنین Ministral 3B و Ministral 8B را منتشر کرد، مدلهای کوچکتری که برای اجرا بر روی لپتاپها یا تلفنها طراحی شدهاند و قادر به ذخیره تقریباً 50 صفحه متنی اطلاعات متنی ارائه شده توسط کاربر هستند.
Mistral با قرار دادن خود به عنوان یک جایگزین کمهزینه و انعطافپذیر برای شرکتهای هوش مصنوعی ایالات متحده مانند OpenAI، در اروپا به موفقیت دست یافته است. همچنین در طول سال 2024 به گسترش خود در بازار سازمانی ایالات متحده ادامه داد. در ماه ژوئن، این شرکت یک دور سرمایهگذاری 640 میلیون دلاری را به رهبری شرکت سرمایهگذاری خطرپذیر General Catalyst تضمین کرد که ارزش Mistral را به تقریباً 6.2 میلیارد دلار رساند.
Fireworks AI
Fireworks یک محیط زمان اجرا سفارشی ارائه میدهد که کار مهندسی اغلب پیچیده مرتبط با ساخت زیرساخت برای استقرار هوش مصنوعی را ساده میکند. با استفاده از پلتفرم Fireworks، شرکتها میتوانند هر یک از بیش از 100 مدل هوش مصنوعی را ادغام کرده و سپس آنها را برای موارد استفاده خاص خود سفارشی و تنظیم دقیق کنند.
این شرکت محصولات جدیدی را در طول سال 2024 معرفی کرد که آن را در موقعیتی قرار میدهد تا از روندهای کلیدی در صنعت هوش مصنوعی سرمایهگذاری کند. اول، توسعهدهندگان به طور فزایندهای بر پاسخگویی مدلها و برنامههای کاربردی مبتنی بر هوش مصنوعی متمرکز شدهاند. Fireworks FireAttention V2، نرمافزار بهینهسازی و کمیسازی را معرفی کرد که عملکرد مدل را تسریع میکند و تأخیر شبکه را کاهش میدهد. دوم، سیستمهای هوش مصنوعی به طور فزایندهای در حال تکامل به ‘خطوط لوله’ هستند که مدلها و ابزارهای مختلف را از طریق API فراخوانی میکنند. نرمافزار جدید FireFunction V2 به عنوان یک هماهنگکننده برای همه اجزای درون این سیستمهای به طور فزاینده پیچیده عمل میکند، به ویژه زمانی که شرکتها برنامههای کاربردی هوش مصنوعی مستقلتری را مستقر میکنند.
Fireworks گزارش میدهد که رشد درآمد 600 درصدی در سال 2024 داشته است. پایگاه مشتریان آن شامل شرکتهای برجستهای مانند Verizon، DoorDash، Uber، Quora و Upwork است.
Snorkel AI
شرکتها متوجه شدهاند که اثربخشی سیستمهای هوش مصنوعی آنها مستقیماً با کیفیت دادههای آنها مرتبط است. Snorkel AI با کمک به شرکتها در آمادهسازی دادههای اختصاصی خود برای استفاده در مدلهای هوش مصنوعی، کسبوکار پررونقی ایجاد کرده است. پلتفرم توسعه داده هوش مصنوعی Snorkel Flow این شرکت روشی مقرونبهصرفه برای شرکتها فراهم میکند تا دادههای اختصاصی خود را برچسبگذاری و مدیریت کنند و امکان استفاده از آن را در سفارشیسازی و ارزیابی مدلهای هوش مصنوعی برای نیازهای تجاری خاص خود فراهم میکند.
در سال 2024، Snorkel پشتیبانی خود را برای شامل تصاویر گسترش داد و به شرکتها اجازه داد تا مدلهای هوش مصنوعی چندوجهی و تولیدکنندههای تصویر را با استفاده از تصاویر اختصاصی خود آموزش دهند. همچنین تولید تقویتشده بازیابی (RAG) را در پلتفرم خود گنجانده است و به مشتریان امکان میدهد تنها مرتبطترین بخشهای اطلاعات را از اسناد طولانی، مانند محتوای پایگاه دانش اختصاصی، برای استفاده در آموزش هوش مصنوعی بازیابی کنند. Snorkel Custom، یک سطح خدمات جدید و با لمس بالاتر، شامل کارشناسان یادگیری ماشین Snorkel است که مستقیماً با مشتریان در پروژهها همکاری میکنند.
Snorkel بیان میکند که رزروهای سالانه سال به سال آن در طول سال 2024 دو برابر شده است، با رشد سه رقمی در رزروهای سالانه برای هر یک از سه سال گذشته. به گفته این شرکت، شش بانک از بزرگترین بانکها اکنون از Snorkel Flow استفاده میکنند، همراه با برندهایی مانند Chubb، Wayfair و Experian.
CalypsoAI
از آنجایی که هوش مصنوعی نقش فزایندهای در فرآیندهای تصمیمگیری حیاتی ایفا میکند، شرکتها به دنبال دید بیشتر در مورد عملکرد داخلی مدلها هستند. این نیاز به ویژه در صنایع تحت نظارت که باید به طور مداوم برای سوگیری و سایر خروجیهای ناخواسته نظارت کنند، مشهود است. CalypsoAI جزو اولین کسانی بود که این نیاز نوظهور را تشخیص داد و به سرعت با ویژگیهای توضیحی پیشرفته در پلتفرم زیرساخت هوش مصنوعی خود پاسخ داد.
آنچه Calypso را متمایز میکند، وسعت فناوری مشاهدهپذیری آن است. در سال 2024، این شرکت پلتفرم امنیت هوش مصنوعی خود را راهاندازی کرد که با ایمنسازی، حسابرسی و نظارت بر تمام مدلهای هوش مصنوعی مولد فعال که یک شرکت ممکن است از آنها استفاده کند، صرف نظر از فروشنده مدل یا اینکه آیا مدل به صورت داخلی یا خارجی میزبانی میشود، از دادههای سازمانی محافظت میکند. Calypso همچنین ابزارهای تجسم جدیدی را معرفی کرد که به کاربران اجازه میدهد منطق زیربنایی تصمیمات هوش مصنوعی را در زمان واقعی مشاهده کنند.
بازار به تاکید Calypso بر مشاهدهپذیری هوش مصنوعی پاسخ مثبت میدهد. این شرکت از افزایش ده برابری درآمد در طول سال 2024 خبر میدهد و پیشبینی میکند که در سال 2025 افزایش پنج برابری دیگری داشته باشد.
Galileo
در حالی که سیستمهای هوش مصنوعی در مقایسه با یک سال پیش، موارد کمتری از توهمات واقعی و سوگیریها را نشان میدهند، اما همچنان مستعد این مسائل هستند. این امر نگرانی قابل توجهی برای هر کسبوکاری است که از هوش مصنوعی استفاده میکند، به ویژه آنهایی که در بخشهای تحت نظارت مانند مراقبتهای بهداشتی و بانکداری هستند. تیمهای توسعه هوش مصنوعی از پلتفرم هوش مصنوعی Galileo برای اندازهگیری، بهینهسازی و نظارت بر دقت مدلها و برنامههای کاربردی خود استفاده میکنند.
در اوایل سال 2024، پس از دو سال تحقیق، Galileo Luna را منتشر کرد، مجموعهای از مدلهای ارزیابی که برای شناسایی خروجیهای مضر آموزش دیدهاند. این مدلها به پلتفرم Galileo اجازه میدهند تا به سرعت کار یک LLM را در حین جمعآوری توکنهایی که پاسخ آن را تشکیل میدهند، بررسی و امتیازدهی کند. این فرآیند تقریباً 200 میلیثانیه طول میکشد و زمان کافی برای پرچمگذاری و جلوگیری از نمایش خروجی هوش مصنوعی به کاربر را میدهد. در حالی که یک LLM استاندارد میتواند این کار را انجام دهد، بسیار گرانتر خواهد بود. مدلهای هدفمند Galileo دقت، مقرونبهصرفگی و مهمتر از همه، سرعت بالاتری را ارائه میدهند.
Galileo گزارش میدهد که پایگاه مشتریان خود را در سال 2024 چهار برابر کرده است، با مشتریانی از جمله Twilio، Reddit، Chegg، Comcast و JPMorgan Chase. این استارتآپ همچنین یک دور سرمایهگذاری 68 میلیون دلاری را از سرمایهگذارانی مانند Clément Delangue، مدیرعامل Hugging Face، تضمین کرد.
Runway
یکی از مهمترین آرزوها—و اضطرابها—در مورد هوش مصنوعی، پتانسیل آن برای تولید ویدئویی با کیفیت کافی برای متحول کردن هنر و اقتصاد فیلمسازی است. این فناوری در سال 2024 گامهای مهمی به سوی این آینده برداشت و Runway، یک استارتآپ تولید ویدئو مستقر در نیویورک، نقش پیشرو را ایفا کرد. انتشار مدل Gen-3 Alpha Runway در ژوئن 2024 به دلیل بهبود قابل توجه باورپذیری ویدئوی تولید شده، مورد تحسین گسترده جامعه هوش مصنوعی قرار گرفت.
Runway همچنین پیشرفتهای عمدهای را در ابزارهای خود برای کنترل زیباییشناسی ویدئوی هوش مصنوعی پیادهسازی کرد. این مدل هم بر روی تصاویر و هم بر روی ویدئو آموزش داده شده است و میتواند ویدئو را بر اساس ورودیهای متنی یا تصویری تولید کند. این شرکت متعاقباً Gen-3 Alpha Turbo، نسخه مقرونبهصرفهتر و سریعتر Gen-3 را منتشر کرد.
هالیوود از نزدیک پیشرفت هوش مصنوعی مولد را زیر نظر داشته است و Runway گزارش میدهد که تولید نسخههای سفارشی مدلهای خود را برای بازیگران صنعت سرگرمی آغاز کرده است. این شرکت در سپتامبر 2024 با Lionsgate Studios وارد یک شراکت رسمی شد. Runway یک مدل سفارشی برای شرکت تولیدی ایجاد کرد و آن را بر روی کاتالوگ فیلم Lionsgate آموزش داد. Runway بیان میکند که این مدل برای کمک به فیلمسازان، کارگردانان و سایر افراد خلاق Lionsgate در ‘تقویت’ کارشان و در عین حال ‘صرفهجویی در زمان، پول و منابع’ در نظر گرفته شده است. Runway معتقد است که توافق آن با Lionsgate میتواند به عنوان الگویی برای همکاریهای مشابه با سایر شرکتهای تولیدی عمل کند.
Cerebras Systems
سیستمهای هوش مصنوعی، به ویژه مدلهای پیشرفته بزرگ، برای کار در مقیاس بزرگ به قدرت محاسباتی عظیمی نیاز دارند. این امر مستلزم اتصال هزاران یا میلیونها تراشه برای توزیع بار کاری است. با این حال، اتصالات شبکه بین تراشهها میتواند باعث ایجاد گلوگاههای عملکرد شود. فناوری Cerebras Systems برای مهار مزایای سرعت و کارایی ادغام مقدار زیادی از قدرت محاسباتی بر روی یک تراشه واحد و فوقالعاده بزرگ طراحی شده است.
به عنوان مثال، آخرین تراشه WSE-3 (Wafer Scale Engine نسل سوم) این شرکت، 814 میلیمتر مربع، به اندازه یک بشقاب شام، و 56 برابر بزرگتر از تراشههای H100 پیشرو در بازار Nvidia است. این تراشه دارای 4 تریلیون ترانزیستور است و 44 گیگابیت حافظه ارائه میدهد. این تراشهها میتوانند برای تشکیل ابررایانهها، مانند Condor Galaxy، ‘صورت فلکی’ از ابررایانههای به هم پیوسته که Cerebras با همکاری بزرگترین مشتری خود، G42، یک شرکت هوش مصنوعی و رایانش ابری مستقر در امارات متحده عربی، در حال توسعه است، خوشهبندی شوند.
تا به امروز، Cerebras جایگاهی در سازمانهای تحقیقاتی بزرگ، از جمله Mayo Clinic، Sandia National Laboratories، Lawrence Livermore National Laboratory و Los Alamos National Laboratory پیدا کرده است. این شرکت در سپتامبر 2024 برای IPO درخواست داد. این چشمانداز نشان میدهد که فروش این شرکت بیش از سه برابر شده و به 78.7 میلیون دلار در سال 2023 رسیده و در نیمه اول سال 2024 به 136.4 میلیون دلار رسیده است.