أكثر الشركات ابتكارًا في الذكاء الاصطناعي

1. Nvidia

لا تزال مهمة تطوير أنظمة ذكاء اصطناعي متطورة بشكل متزايد تدفع استثمارات كبيرة من مطوري نماذج اللغات الكبيرة. ومع ذلك، هناك شركة واحدة تجني بالفعل ثمار ثورة الذكاء الاصطناعي هذه: Nvidia. بعد أن أشعلت سباق الذكاء الاصطناعي بوحدات معالجة الرسومات (GPUs) المهيمنة، أصبحت Nvidia الآن في وضع مثالي بفضل معالجتها ومنصتها Blackwell الرائدة لدعم السعي وراء الذكاء على المستوى البشري.

يتفوق Blackwell على سابقه، H100، حيث يوفر ما يصل إلى 2.5 ضعف الطاقة لمهام تدريب النماذج العامة، مع استهلاك طاقة أقل بكثير في نفس الوقت. وقد التزم كبار مشغلي مراكز البيانات ومختبرات الذكاء الاصطناعي، بما في ذلك عمالقة الصناعة مثل Google و Meta و Microsoft و OpenAI و Tesla و xAI، بشراء مئات الآلاف من وحدات معالجة الرسومات Blackwell.

في حين أن النماذج الحديثة من شركات صينية مثل DeepSeek و Alibaba أظهرت قدرات رائعة باستخدام وحدات معالجة رسومات Nvidia أقدم وأقل قوة، فإن Nvidia لا تكتفي بما حققته من أمجاد. تعمل الشركة بنشاط على تطوير منصات لتطبيقات متنوعة، بدءًا من اكتشاف الأدوية (Clara for Biopharma) والمركبات ذاتية القيادة (Drive AGX) إلى إنتاج الفيديو (Holoscan) والتوائم الرقمية (Omniverse). من خلال تعزيز تقدم الذكاء الاصطناعي عبر مجموعة واسعة من سيناريوهات العالم الحقيقي، تضع Nvidia نفسها بشكل استراتيجي لتحقيق نمو مستدام، حتى لو أظهرت النماذج المستقبلية اعتمادًا أقل على القوة الحسابية الهائلة.

2. OpenAI

منذ عام 2019، قامت OpenAI باستمرار بتحسين نماذجها من خلال توسيع بيانات التدريب وموارد الحوسبة، وهي استراتيجية تم اعتمادها على نطاق واسع في جميع أنحاء الصناعة. ومع ذلك، مع تضاؤل العائدات من هذا النهج المتدرج، أدركت OpenAI الحاجة إلى مسار جديد نحو تحقيق AGI - نماذج تتجاوز الذكاء البشري في معظم المهام.

وصل حل OpenAI في شكل نموذج o1. بدلاً من التركيز فقط على زيادة الموارد أثناء التدريب المسبق، صممت OpenAI o1 لتخصيص المزيد من الوقت وقوة الحوسبة أثناء الاستدلال، وهي المرحلة التي يتم فيها نشر النموذج بنشاط والاستجابة لمطالبات المستخدم. خلال هذه العملية، يجمع o1 ويحتفظ بالمعلومات السياقية، سواء من المستخدم أو من مصادر البيانات ذات الصلة. ويستخدم منهجية التجربة والخطأ لتحديد المسار الأمثل للإجابة. والنتيجة هي توليد استجابات على مستوى الدكتوراه للأسئلة المعقدة، مما يدفع o1 إلى قمة تصنيفات الأداء القياسية.

تقدم OpenAI إصدارات ‘تجريبية’ و ‘مصغرة’ من o1 لمشتركي ChatGPT Plus. بالإضافة إلى ذلك، توفر خدمة متميزة تسمى ChatGPT Pro وصولاً غير محدود إلى نموذج o1 الكامل مقابل 200 دولار شهريًا. في ديسمبر 2024، كشفت OpenAI عن خليفة o1، o3، وفي فبراير 2025، منحت المستخدمين المدفوعين إمكانية الوصول إلى o3-mini، وهو متغير أصغر وأسرع ومحسن للعلوم والرياضيات والترميز. إن التأثير الأعمق لنماذج الاستدلال الجديدة من OpenAI هو التحقق من صحة زيادة الحوسبة في وقت الاستدلال كطريق واعد لتحقيق المزيد من الاختراقات في الذكاء على الطريق إلى AGI.

3. Google DeepMind

نشأ البحث التأسيسي الذي مهد الطريق لروبوتات الدردشة اليوم في Google في أواخر عام 2010. طورت Google روبوت محادثة يعمل بنموذج لغوي كبير قبل ظهور ChatGPT بوقت طويل. ومع ذلك، يُقال إن المخاوف المتعلقة بالسلامة والخصوصية والآثار القانونية أدت إلى اتباع نهج حذر، مما أدى إلى تأخير إطلاقه العام. أدى هذا التردد إلى تخلف Google في البداية في سباق الذكاء الاصطناعي الذي تلا ذلك والذي أطلقه إطلاق ChatGPT.

أشار إصدار Gemini 2.0 من Google DeepMind في عام 2024 إلى عودة Google النهائية. يمثل Gemini 2.0 أول نموذج ذكاء اصطناعي في السوق الشامل متعدد الوسائط بطبيعته، وقادر على معالجة وإنشاء الصور والفيديو والصوت ورمز الكمبيوتر بنفس الطلاقة التي يتمتع بها النص. تتيح هذه الإمكانية للنموذج تحليل مقاطع الفيديو والتفكير فيها، أو حتى خلاصات الفيديو الحية من كاميرا الهاتف، بسرعة ودقة ملحوظتين.

يتميز Gemini أيضًا بقدرته على التحكم في خدمات Google الأخرى، مثل الخرائط والبحث. يُظهر هذا التكامل ميزة Google الاستراتيجية، حيث يجمع بين أبحاث الذكاء الاصطناعي وأدوات المعلومات والإنتاجية الراسخة. يعد Gemini من بين أول نماذج الذكاء الاصطناعي التي تُظهر التشغيل المستقل والقدرة على التفكير في المشكلات المعقدة نيابة عن المستخدم. يوفر نموذج Gemini 2.0 Flash Thinking Experimental للمستخدمين رؤى حول عملية التفكير المستخدمة للوصول إلى إجابة. علاوة على ذلك، في ديسمبر، قدمت Google مشروع Mariner، وهو ميزة ذكاء اصطناعي قائمة على Gemini مصممة لأداء مهام مثل التسوق عبر الإنترنت بشكل مستقل.

4. Anthropic

تركزت التطبيقات الأساسية للذكاء الاصطناعي التوليدي حتى الآن حول كتابة النصوص وتلخيصها وإنشاء الصور. تتضمن الخطوة التطورية التالية تزويد نماذج اللغات الكبيرة بقدرات استدلال والقدرة على استخدام الأدوات. قدم نموذج ‘استخدام الكمبيوتر’ الخاص بـ Anthropic لمحة مبكرة عن هذا المستقبل.

بدءًا من Claude 3.5 Sonnet في عام 2024، يمكن لنموذج Anthropic إدراك النشاط الذي يظهر على الشاشة، بما في ذلك محتوى الإنترنت. يمكنه معالجة المؤشر والنقر فوق الأزرار وإدخال النص. أظهر مقطع فيديو توضيحي قدرة Claude على إكمال نموذج باستخدام المعلومات المتاحة على مواقع الويب المفتوحة في علامات تبويب المتصفح. يمكنه إنجاز مهام مثل إنشاء موقع ويب شخصي أو تنظيم الخدمات اللوجستية لرحلة ليوم واحد. إن الإجراءات المستقلة للذكاء الاصطناعي، مثل فتح علامات تبويب جديدة وإجراء عمليات بحث وملء حقول البيانات، رائعة حقًا.

في حين أن النموذج يعمل حاليًا بوتيرة أبطأ وقد لا ينتج دائمًا الإجابة الصحيحة، فمن المتوقع حدوث تحسينات سريعة حيث تحدد Anthropic قيودها وتعالجها. تبع مشروع Mariner المذكور أعلاه من Google خطى Anthropic في ديسمبر، وقدمت OpenAI نموذج استخدام الكمبيوتر الخاص بها، Operator، في يناير 2025. في فبراير 2025، كشفت Anthropic عن تكرارها الرئيسي التالي، Claude 3.7 Sonnet، وهو نموذج أكبر قادر على الدخول تلقائيًا في وضع الاستدلال للاستعلامات الصعبة.

5. Microsoft

نشأ تطوير نماذج Phi من Microsoft من سؤال أساسي طرحه باحثو الشركة في عام 2023: ‘ما هو أصغر حجم نموذج يمكن أن يُظهر علامات الذكاء الناشئ؟’ شكل هذا الاستعلام لحظة محورية في تطور ‘نماذج اللغات الصغيرة’، وهي نماذج مصممة للأداء الأمثل في السيناريوهات ذات الذاكرة المحدودة أو قوة المعالجة أو الاتصال، حيث تكون أوقات الاستجابة السريعة أمرًا بالغ الأهمية.

طوال عام 2024، أصدرت Microsoft جيلين من النماذج الصغيرة التي أظهرت قدرات استدلال ومنطق لم يتم دمجها صراحةً أثناء التدريب. في أبريل، كشفت الشركة عن سلسلة من نماذج Phi-3 التي تفوقت في معايير اللغة والاستدلال والترميز والرياضيات، ويرجع ذلك على الأرجح إلى تدريبها على بيانات اصطناعية تم إنشاؤها بواسطة نماذج لغوية أكبر وأكثر قدرة. تم تنزيل متغيرات Phi-3 مفتوحة المصدر أكثر من 4.5 مليون مرة على Hugging Face خلال عام 2024.

في أواخر عام 2024، أطلقت Microsoft نماذج اللغات الصغيرة Phi-4، والتي تفوقت على نماذج Phi-3 في المهام التي تركز على الاستدلال وتفوقت حتى على GPT-4o من OpenAI في معايير GPQA (الأسئلة العلمية) و MATH. أصدرت Microsoft النموذج بموجب ترخيص مفتوح المصدر ومفتوح الأوزان، مما يمكّن المطورين من إنشاء نماذج متطورة أو تطبيقات للهواتف أو أجهزة الكمبيوتر المحمولة. في أقل من شهر، حصل Phi-4 على 375000 تنزيل على Hugging Face.

6. Amazon

قدمت Amazon AWS مؤخرًا Trainium2، وهو إصدار جديد من معالج Trainium الخاص بها للذكاء الاصطناعي، والذي قد يتحدى هيمنة وحدات معالجة الرسومات Nvidia في إعدادات محددة. تم تصميم Trainium2 لتوفير قوة الحوسبة الهائلة المطلوبة لتدريب أكبر نماذج الذكاء الاصطناعي التوليدية ولعمليات وقت الاستدلال بعد نشر النموذج. تدعي AWS أن Trainium أكثر فعالية من حيث التكلفة بنسبة 30٪ إلى 40٪ من وحدات معالجة الرسومات للمهام المماثلة.

يعالج Trainium2 أوجه القصور في الطاقة وتكامل البرامج التي لوحظت في شريحة Trainium الأولى، مما يضع Amazon في مكانة تسمح لها بسد الفجوة مع Nvidia. (تجدر الإشارة إلى أن AWS نفسها لا تزال تعتمد بشكل كبير على Nvidia لوحدات معالجة الرسومات.) يعد إزاحة Nvidia تحديًا هائلاً بسبب ارتباط العملاء بطبقة برامج CUDA من Nvidia، والتي توفر للباحثين تحكمًا دقيقًا في كيفية استخدام نماذجهم لموارد الشريحة. تقدم Amazon طبقة برامج التحكم في kernel الخاصة بها، Neuron Kernel Interface (NKI)، والتي، على غرار CUDA، تمنح الباحثين تحكمًا دقيقًا في تفاعلات kernel الخاصة بالشريحة.

من المهم ملاحظة أن Trainium2 لم يتم اختباره بعد على نطاق واسع. تقوم AWS حاليًا ببناء مجموعة خوادم تضم 400000 شريحة Trainium2 لـ Anthropic، والتي يمكن أن توفر رؤى قيمة حول تحسين أداء رقائق الذكاء الاصطناعي الخاصة بها في عمليات النشر واسعة النطاق.

7. Arm

لطالما كانت شركة Arm البريطانية لتصميم أشباه الموصلات مزودًا رئيسيًا للهندسة المعمارية المستخدمة في الرقائق التي تشغل الأجهزة الصغيرة مثل الهواتف وأجهزة الاستشعار وأجهزة إنترنت الأشياء. يكتسب هذا الدور أهمية متزايدة في العصر الناشئ حيث ستقوم رقائق الأجهزة الطرفية بتنفيذ نماذج الذكاء الاصطناعي. ستلعب مراكز البيانات أيضًا دورًا حاسمًا في هذا التطور، وغالبًا ما تتعامل مع بعض أو كل معالجة الذكاء الاصطناعي الأكثر تطلبًا وتقديم النتائج إلى الأجهزة الطرفية.

مع انتشار مراكز البيانات على مستوى العالم، سيصبح استهلاكها للطاقة الكهربائية مصدر قلق متزايد. يساهم هذا العامل في التركيز على الكفاءة في أحدث بنية لوحدة المعالجة المركزية Neoverse من Arm. تفتخر بتحسين الأداء بنسبة 50٪ مقارنة بالأجيال السابقة وأداء أفضل بنسبة 20٪ لكل واط مقارنة بالمعالجات التي تستخدم معماريات x86 المنافسة، وفقًا للشركة.

تفيد Arm بأن Amazon و Microsoft و Google و Oracle قد اعتمدوا جميعًا Arm Neoverse لكل من الحوسبة للأغراض العامة والاستدلال والتدريب على الذكاء الاصطناعي القائم على وحدة المعالجة المركزية. على سبيل المثال، في عام 2024، أعلنت Microsoft أن أول سيليكون مخصص لها مصمم للسحابة، معالج Cobalt 100، قد تم بناؤه على Arm Neoverse. ستعتمد بعض أكبر مراكز بيانات الذكاء الاصطناعي على Grace Hopper Superchip من NVIDIA، والذي يجمع بين وحدة معالجة الرسومات Hopper ووحدة المعالجة المركزية Grace استنادًا إلى Neoverse. من المقرر أن تطلق Arm وحدة المعالجة المركزية الخاصة بها هذا العام، مع Meta كأحد عملائها الأوائل.

8. Gretel

على مدار العام الماضي، شهدت شركات الذكاء الاصطناعي تناقصًا في العائدات من تدريب نماذجها بكميات متزايدة من البيانات التي تم جمعها من الويب. وبالتالي، فقد حولوا تركيزهم من الكم الهائل لبيانات التدريب إلى جودتها. وقد أدى ذلك إلى زيادة الاستثمار في المحتوى غير العام والمتخصص المرخص من شركاء النشر. يحتاج باحثو الذكاء الاصطناعي أيضًا إلى معالجة الثغرات أو النقاط العمياء في بيانات التدريب التي تم إنشاؤها بواسطة الإنسان أو التي تم شرحها بواسطة الإنسان. لهذا الغرض، لجأوا بشكل متزايد إلى بيانات التدريب الاصطناعية التي تم إنشاؤها بواسطة نماذج ذكاء اصطناعي متخصصة.

اكتسبت Gretel مكانة بارزة في عام 2024 من خلال التخصص في إنشاء وتنظيم بيانات التدريب الاصطناعية. أعلنت الشركة عن التوفر العام لمنتجها الرئيسي، Gretel Navigator، والذي يمكّن المطورين من استخدام اللغة الطبيعية أو مطالبات SQL لإنشاء وزيادة وتحرير وتنظيم مجموعات بيانات التدريب الاصطناعية للضبط الدقيق والاختبار. وقد اجتذبت المنصة بالفعل مجتمعًا يضم أكثر من 150.000 مطور قاموا بتجميع أكثر من 350 مليار قطعة من بيانات التدريب.

لاحظت جهات فاعلة أخرى في الصناعة قدرات Gretel. دخلت Gretel في شراكة مع Google لجعل بيانات التدريب الاصطناعية الخاصة بها متاحة بسهولة لعملاء Google Cloud. تم الإعلان عن شراكة مماثلة مع Databricks في يونيو، مما يمنح عملاء Databricks من المؤسسات إمكانية الوصول إلى بيانات التدريب الاصطناعية لنماذجهم التي تعمل داخل سحابة Databricks.

9. Mistral AI

لطالما مارست Mistral AI، المنافس الفرنسي في ساحة الذكاء الاصطناعي التوليدي، ضغوطًا على OpenAI و Anthropic و Google في طليعة تطوير نماذج الذكاء الاصطناعي الحدودية. أصدرت Mistral AI سلسلة من النماذج الجديدة التي تتضمن تطورات تكنولوجية كبيرة في عام 2024، مما يدل على نمو الأعمال السريع من خلال كل من التسويق المباشر لواجهات برمجة التطبيقات الخاصة بها والشراكات الاستراتيجية.

في وقت سابق من العام، قدمت الشركة زوجًا من النماذج مفتوحة المصدر تسمى Mixtral، وتتميز باستخدامها المبتكر لهندسة ‘مزيج الخبراء’، حيث يتم إشراك مجموعة فرعية متخصصة فقط من معلمات النموذج للتعامل مع استعلام، مما يعزز الكفاءة. في يوليو 2024، أعلنت Mistral عن Mistral Large 2، والذي، عند 123 مليار معلمة، أظهر تحسينات كبيرة في توليد الكود والرياضيات والاستدلال واستدعاء الوظائف. أصدرت الشركة الفرنسية أيضًا Ministral 3B و Ministral 8B، وهما نموذجان أصغر مصممان للتنفيذ على أجهزة الكمبيوتر المحمولة أو الهواتف، وقادران على تخزين ما يقرب من 50 صفحة نصية من المعلومات السياقية التي يقدمها المستخدم.

حققت Mistral نجاحًا في أوروبا من خلال وضع نفسها كبديل منخفض التكلفة ومرن لشركات الذكاء الاصطناعي الأمريكية مثل OpenAI. كما واصلت توسعها في سوق المؤسسات الأمريكية خلال عام 2024. في يونيو، حصلت الشركة على جولة تمويل بقيمة 640 مليون دولار، بقيادة شركة رأس المال الاستثماري General Catalyst، مما رفع تقييم Mistral إلى ما يقرب من 6.2 مليار دولار.

10. Fireworks AI

تقدم Fireworks بيئة تشغيل مخصصة تعمل على تبسيط العمل الهندسي المعقد غالبًا المرتبط ببناء البنية التحتية لعمليات نشر الذكاء الاصطناعي. باستخدام منصة Fireworks، يمكن للمؤسسات دمج أي من أكثر من 100 نموذج ذكاء اصطناعي ثم تخصيصها وضبطها بدقة لحالات الاستخدام الخاصة بها.

قدمت الشركة منتجات جديدة خلال عام 2024 من شأنها أن تضعها في مكانة للاستفادة من الاتجاهات الرئيسية في صناعة الذكاء الاصطناعي. أولاً، أصبح المطورون يركزون بشكل متزايد على استجابة النماذج والتطبيقات التي تعمل بالذكاء الاصطناعي. ظهرت Fireworks لأول مرة FireAttention V2، وهو برنامج تحسين وتكميم يعمل على تسريع أداء النموذج وتقليل زمن انتقال الشبكة. ثانيًا، تتطور أنظمة الذكاء الاصطناعي بشكل متزايد إلى ‘خطوط أنابيب’ تستدعي نماذج وأدوات مختلفة عبر واجهات برمجة التطبيقات. يعمل برنامج FireFunction V2 الجديد كمنسق لجميع المكونات داخل هذه الأنظمة المعقدة بشكل متزايد، خاصة وأن المؤسسات تنشر المزيد من تطبيقات الذكاء الاصطناعي المستقلة.

تفيد Fireworks بزيادة قدرها 600٪ في نمو الإيرادات في عام 2024. وتشمل قاعدة عملائها شركات بارزة مثل Verizon و DoorDash و Uber و Quora و Upwork.

11. Snorkel AI

أدركت المؤسسات أن فعالية أنظمة الذكاء الاصطناعي الخاصة بها مرتبطة ارتباطًا مباشرًا بجودة بياناتها. قامت Snorkel AI ببناء أعمال مزدهرة من خلال مساعدة المؤسسات في إعداد بيانات الملكية الخاصة بها لاستخدامها في نماذج الذكاء الاصطناعي. توفر منصة تطوير بيانات الذكاء الاصطناعي Snorkel Flow الخاصة بالشركة طريقة فعالة من حيث التكلفة للشركات لتسمية وتنظيم بيانات الملكية الخاصة بها، مما يتيح استخدامها في تخصيص وتقييم نماذج الذكاء الاصطناعي لاحتياجات أعمالهم الخاصة.

في عام 2024، وسعت Snorkel دعمها ليشمل الصور، مما يسمح للشركات بتدريب نماذج الذكاء الاصطناعي متعددة الوسائط ومولدات الصور باستخدام صور الملكية الخاصة بها. كما قامت بدمج الجيل المعزز بالاسترجاع (RAG) في نظامها الأساسي، مما يمكّن العملاء من استرداد الأجزاء الأكثر صلة فقط من المعلومات من المستندات الطويلة، مثل محتوى قاعدة المعرفة الخاصة، لاستخدامها في تدريب الذكاء الاصطناعي. Snorkel Custom، وهو مستوى خدمة جديد وأعلى لمسة، يتضمن خبراء التعلم الآلي في Snorkel الذين يتعاونون مباشرة مع العملاء في المشاريع.

تذكر Snorkel أن حجوزاتها السنوية على أساس سنوي تضاعفت خلال عام 2024، مع نمو ثلاثي الأرقام في الحجوزات السنوية لكل من السنوات الثلاث الماضية. وفقًا للشركة، تستخدم ستة من أكبر البنوك الآن Snorkel Flow، جنبًا إلى جنب مع علامات تجارية مثل Chubb و Wayfair و Experian.

12. CalypsoAI

نظرًا لأن الذكاء الاصطناعي يلعب دورًا متزايد الأهمية في عمليات صنع القرار الحاسمة، تسعى المؤسسات إلى تعزيز الرؤية في الأعمال الداخلية للنماذج. تتجلى هذه الحاجة بشكل خاص في الصناعات المنظمة التي يجب أن تراقب باستمرار التحيز والمخرجات الأخرى غير المقصودة. كانت CalypsoAI من بين أول من أدرك هذا المطلب الناشئ واستجابت بسرعة بميزات إمكانية الشرح المحسنة في منصة البنية التحتية للذكاء الاصطناعي الخاصة بها.

ما يميز Calypso هو اتساع تقنية المراقبة الخاصة بها. في عام 2024، أطلقت الشركة منصة أمان الذكاء الاصطناعي الخاصة بها، والتي تحمي بيانات المؤسسة من خلال تأمين ومراجعة ومراقبة جميع نماذج الذكاء الاصطناعي التوليدية النشطة التي قد تستخدمها الشركة، بغض النظر عن بائع النموذج أو ما إذا كان النموذج مستضافًا داخليًا أو خارجيًا. قدمت Calypso أيضًا أدوات تصور جديدة تسمح للمستخدمين بمراقبة المنطق الكامن وراء قرارات الذكاء الاصطناعي في الوقت الفعلي.

يستجيب السوق بشكل إيجابي لتركيز Calypso على إمكانية مراقبة الذكاء الاصطناعي. تفيد الشركة بزيادة قدرها عشرة أضعاف في الإيرادات خلال عام 2024 وتتوقع زيادة أخرى بمقدار خمسة أضعاف في عام 2025.

13. Galileo

في حين أن أنظمة الذكاء الاصطناعي تُظهر حالات أقل من الهلوسة والتحيزات الواقعية مقارنة بالعام الماضي، إلا أنها لا تزال عرضة لهذه المشكلات. يشكل هذا مصدر قلق كبير لأي شركة تستخدم الذكاء الاصطناعي، وخاصة تلك الموجودة في القطاعات المنظمة مثل الرعاية الصحية والخدمات المصرفية. تستخدم فرق تطوير الذكاء الاصطناعي منصة الذكاء الاصطناعي الخاصة بـ Galileo لقياس وتحسين ومراقبة دقة نماذجها وتطبيقاتها.

في أوائل عام 2024، بعد عامين من البحث، أصدرت Galileo Luna، وهي مجموعة من نماذج التقييم المدربة لتحديد المخرجات الضارة. تمكّن هذه النماذج منصة Galileo من التدقيق السريع وتسجيل عمل LLM أثناء تجميع الرموز المميزة التي تشكل استجابتها. تستغرق هذه العملية حوالي 200 مللي ثانية، مما يتيح وقتًا كافيًا للإبلاغ عن إخراج الذكاء الاصطناعي ومنعه من عرضه على المستخدم. في حين أن LLM القياسي يمكنه أداء هذه المهمة، إلا أنه سيكون أكثر تكلفة بكثير. توفر نماذج Galileo المصممة لهذا الغرض دقة فائقة وفعالية من حيث التكلفة، والأهم من ذلك، السرعة.

تفيد Galileo بمضاعفة قاعدة عملائها أربع مرات في عام 2024، مع عملاء بما في ذلك Twilio و Reddit و Chegg و Comcast و JPMorgan Chase. حصلت الشركة الناشئة أيضًا على جولة تمويل بقيمة 68 مليون دولار من مستثمرين مثل الرئيس التنفيذي لشركة Hugging Face، Clément Delangue.

14. Runway

أحد أهم التطلعات - والمخاوف - المحيطة بالذكاء الاصطناعي هو قدرته على توليد فيديو بجودة كافية لإحداث ثورة في فن واقتصاديات صناعة الأفلام. حققت التكنولوجيا خطوات كبيرة نحو هذا المستقبل في عام 2024، حيث لعبت Runway، وهي شركة ناشئة لتوليد الفيديو مقرها نيويورك، دورًا رائدًا. حظي إصدار نموذج Gen-3 Alpha من Runway في يونيو 2024 بإشادة واسعة النطاق داخل مجتمع الذكاء الاصطناعي لتحسين مصداقية الفيديو الذي تم إنشاؤه بشكل كبير.

نفذت Runway أيضًا تحسينات كبيرة على أدواتها للتحكم في جماليات فيديو الذكاء الاصطناعي. تم تدريب النموذج على كل من الصور والفيديو ويمكنه إنشاء فيديو بناءً على مدخلات نصية أو صور. أصدرت الشركة لاحقًا Gen-3 Alpha Turbo، وهو إصدار أكثر فعالية من حيث التكلفة وأسرع من Gen-3.

تراقب هوليوود عن كثب تقدم الذكاء الاصطناعي التوليدي، وتفيد Runway بأنها بدأت في إنتاج إصدارات مخصصة من نماذجها للاعبين في صناعة الترفيه. دخلت في شراكة رسمية مع Lionsgate Studios في سبتمبر 2024. طورت Runway نموذجًا مخصصًا لشركة الإنتاج وقامت بتدريبه على كتالوج أفلام Lionsgate. تذكر Runway أن النموذج يهدف إلى مساعدة صانعي الأفلام والمخرجين وغيرهم من المبدعين في Lionsgate في ‘زيادة’ عملهم مع ‘توفير الوقت والمال والموارد’. تعتقد Runway أن ترتيبها مع Lionsgate يمكن أن يكون بمثابة مخطط لتعاون مماثل مع شركات إنتاج أخرى.

15. Cerebras Systems

تتطلب أنظمة الذكاء الاصطناعي، وخاصة النماذج الحدودية الكبيرة، قوة حوسبة هائلة للعمل على نطاق واسع. وهذا يستلزم الربط البيني لآلاف أو ملايين الرقائق لتوزيع عبء العمل. ومع ذلك، يمكن أن تؤدي اتصالات الشبكة بين الرقائق إلى اختناقات في الأداء. تم تصميم تقنية Cerebras Systems لتسخير مزايا السرعة والكفاءة لدمج قدر كبير من قوة الحوسبة على شريحة واحدة كبيرة بشكل استثنائي.

على سبيل المثال، يبلغ قياس أحدث شريحة WSE-3 (محرك مقياس الرقاقة من الجيل الثالث) للشركة 814 مليمترًا مربعًا، أي بحجم طبق العشاء، وهي أكبر بـ 56 مرة من رقائق H100 الرائدة في السوق من Nvidia. تتضمن الشريحة 4 تريليونات ترانزستور مذهلة وتوفر 44 جيجابت من الذاكرة. يمكن تجميع هذه الرقائق لتشكيل أجهزة كمبيوتر عملاقة، مثل Condor Galaxy، وهي ‘كوكبة’ من أجهزة الكمبيوتر العملاقة المترابطة التي تطورها Cerebras بالتعاون مع أكبر عملائها، G42، وهي شركة ذكاء اصطناعي وحوسبة سحابية مقرها الإمارات العربية المتحدة.

حتى الآن، وجدت Cerebras مكانًا مناسبًا في مؤسسات البحث الكبيرة، بما في ذلك Mayo Clinic و Sandia National Laboratories و Lawrence Livermore National Laboratory و Los Alamos National Laboratory. تقدمت الشركة بطلب للاكتتاب العام الأولي في سبتمبر 2024. يشير نشرة الإصدار إلى أن مبيعات الشركة زادت بأكثر من ثلاثة أضعاف لتصل إلى 78.7 مليون دولار في عام 2023 وارتفعت إلى 136.4 مليون دولار في النصف الأول من عام 2024.