شهد فجر عام 2025 حدثًا زلزاليًا في عالم الذكاء الاصطناعي: الكشف عن DeepSeek-R1 من قبل الفريق الصيني، DeepSeek. سرعان ما أثبت هذا النموذج اللغوي مفتوح المصدر، الذي يحتوي على 671 مليار معلمة، نفسه كمنافس قوي، ينافس نماذج OpenAI الرائدة في مجالات حاسمة مثل الرياضيات والبرمجة والاستدلال المنطقي. كانت قدرة DeepSeek-R1 على معالجة المشكلات المعقدة جديرة بالملاحظة بشكل خاص، نظرًا لاستخدامه التعلم المعزز. علاوة على ذلك، أدت رخصة MIT الخاصة بالنموذج إلى تعطيل المشهد من خلال تفكيك الحواجز التجارية. ترددت أصداء ظهور DeepSeek-R1 في جميع أنحاء عالم التكنولوجيا وحتى في الأسواق المالية، مما أدى بحسب التقارير إلى تراجع كبير في أسهم الذكاء الاصطناعي في غضون أسبوع من إصداره.
يمثل DeepSeek-R1 قفزة كبيرة إلى الأمام لحركة الذكاء الاصطناعي مفتوحة المصدر في الصين في مجال النماذج اللغوية المتطورة. لقد حفز هذا التحدي غير المتوقع قادة الذكاء الاصطناعي العالميين من الولايات المتحدة والصين على تسريع مبادراتهم، وكشفوا عن استراتيجياتهم في كل من التكنولوجيا وتحديد المواقع في السوق. وقد أدى هذا إلى بدء سباق الذكاء الاصطناعي حول نموذج DeepSeek-R1.
دعونا نفحص كيف استجاب اللاعبون الرئيسيون في ساحة الذكاء الاصطناعي - Meta وGoogle وOpenAI وAnthropic وAlibaba وBaidu - لهذه المنافسة الجديدة.
Meta: الاستفادة من الحجم والكفاءة مع LLaMA 4
استجابت Meta، وهي شركة رائدة في مجتمع النماذج مفتوحة المصدر، لـ DeepSeek R1 من خلال تقديم LLaMA 4. في أبريل 2025، أطلقت Meta LLaMA 4، وهو أقوى نموذج لها حتى الآن، مما يوفر الوصول إلى واجهة برمجة التطبيقات عبر منصات مثل Cloudflare. تستخدم LLaMA 4 بنية Mixture-of-Experts (MoE)، التي تقسم النموذج إلى نماذج فرعية وتنشط جزءًا صغيرًا منها فقط أثناء كل استدلال. يوازن هذا التصميم بين معلمات واسعة النطاق وكفاءة الاستدلال.
تتميز سلسلة LLaMA 4 بالعديد من النماذج الفرعية، بما في ذلك "Scout"، مع 109 مليار معلمة إجمالية و 17 مليار معلمة نشطة فقط، مما يسمح بتشغيلها على بطاقة H100 واحدة. يحتوي نموذج "Maverick" على 400 مليار معلمة إجمالية (128 خبيرًا) ولكن لا يزال لديه 17 مليار معلمة نشطة فقط، مما يتطلب مجموعة DGX. يتيح هذا التصميم لـ LLaMA 4 دعم نوافذ السياق التي تصل إلى 10 ملايين رمز، مما يجعلها من بين النماذج مفتوحة المصدر الأولى التي تقدم هذه الإمكانية. وهذا مفيد بشكل خاص لتلخيص المستندات الطويلة وتحليل مستودعات التعليمات البرمجية الكبيرة.
تحافظ LLaMA 4 على أوقات استجابة سريعة وتدعم المدخلات متعددة الوسائط للصور والصوت والفيديو، وذلك بفضل بنية MoE الخاصة بها. اختارت Meta استراتيجية الكفاءة، وتعزيز قدراتها متعددة الوسائط وتبسيط عملياتها، لتعزيز مكانتها في قطاع المصادر المفتوحة بينما تركز DeepSeek على إمكانات الاستدلال.
Google: تطور Gemini نحو وكلاء ذكيين مستقلين
في مواجهة الضغط المشترك من OpenAI و DeepSeek، اختارت Google استراتيجية الابتكار التكنولوجي. في فبراير 2025، قدمت Google سلسلة Gemini 2.0، التي تضم إصدارات Flash وPro وLite، مما يشير إلى التحرك نحو قدرات "الوكيل الذكي".
تمثل قدرات الوكيل في Gemini 2.0 تقدمًا كبيرًا. يمكن للنموذج فهم طرق متعددة واستخدام محركات البحث وصناديق حماية التعليمات البرمجية وتصفح الويب بنشاط. يسمح مشروع Mariner من Google بعمليات متصفح Chrome التي تعتمد على الذكاء الاصطناعي، مما يمكن الذكاء الاصطناعي من ملء النماذج والنقر فوق الأزرار.
قدمت Google أيضًا بروتوكول Agent2Agent، الذي يسمح للوكلاء الذكيين المختلفين بالتواصل والعمل معًا، من أجل دعم النظام البيئي للوكلاء الخاص بها. بالإضافة إلى ذلك، فقد أنشأت Agent Garden، وهي أداة ومجموعة تطوير لتشجيع مطوري الطرف الثالث على المشاركة.
تعيد Google تعريف السيناريوهات الأساسية للعصر التالي من خلال التركيز على التعاون بين الوكلاء الذكيين حيث يتطور الذكاء الاصطناعي نحو القدرات القائمة على الأدوات والمستقلة، بدلاً من التركيز على سباق المعلمات مع DeepSeek و OpenAI. يمثل تطور Gemini تحولًا استراتيجيًا وليس مجرد ترقية للنموذج.
OpenAI: تكرار النماذج ودمج النظم البيئية من أجل الموثوقية والقيادة
لقد سرّعت OpenAI من عمليات تكرار النماذج وعمليات نشر المنتجات استجابةً لـ DeepSeek R1. في فبراير 2025، أطلقت OpenAI GPT-4.5، وهو إصدار مؤقت من GPT-4، والذي يحسن الاتساق المنطقي والدقة الواقعية، مع تمهيد الطريق أيضًا لـ GPT-5.
تعتبر GPT-4.5 آخر نموذج رئيسي لا يشتمل على استدلال سلسلة الأفكار. ستجمع GPT-5 بين ميزات نموذج الاستدلال التجريبي o3-mini وسلسلة GPT لإنشاء "نموذج إدراكي عام" موحد. ذكرت OpenAI أيضًا أن GPT-5 سيكون له مستويات ذكاء قابلة للتعديل بدرجة كبيرة وقدرات استخدام الأدوات.
قررت OpenAI السماح لمستخدمي ChatGPT المجانيين باستخدام الإصدار الأساسي من GPT-5، بينما سيتمكن المستخدمون الذين يدفعون رسومًا من الوصول إلى ميزات أكثر تقدمًا من أجل تقليل خطر تحول المستخدمين إلى بدائل مفتوحة المصدر. تهدف هذه الاستراتيجية إلى إبقاء المستخدمين منخرطين بتغطية واسعة.
تقوم OpenAI أيضًا بدمج قدرات مثل المكونات الإضافية والمتصفحات ومنفذي التعليمات البرمجية في نموذج GPT الأساسي، بدلاً من إبقائها منفصلة، من أجل إنشاء "ذكاء اصطناعي كامل الميزات". تستجيب OpenAI لتحدي R1 من خلال الدمج المنهجي وزيادة كثافة الذكاء.
Anthropic: تعميق الذكاء القوي من خلال الاستدلال المختلط وميزانيات التفكير
قدمت Anthropic Claude 3.7 Sonnet في فبراير 2025، والذي يركز على "الاستدلال المختلط" و "ميزانيات التفكير". يمكن للمستخدمين اختيار "الوضع القياسي" للحصول على استجابات سريعة أو تمكين "الوضع الموسع" للحصول على تفكير أعمق خطوة بخطوة.
تشبه هذه الطريقة "التفكير أكثر" عندما يواجه الأشخاص مهام صعبة، لأنها تسمح للذكاء الاصطناعي بالاستغراق وقتًا أطول للتفكير من أجل تحسين الدقة. تسمح Anthropic أيضًا للمستخدمين بتعيين "وقت التفكير" لتحقيق التوازن بين عمق الاستدلال وتكاليف الاتصال.
يتفوق Claude 3.7 على سابقه، 3.5، في المهام الصعبة مثل البرمجة والاستدلال، وهو أحد النماذج القليلة في الصناعة التي تركز على شفافية عملية الاستدلال. حققت إمكانات التعليمات البرمجية الخاصة بها أيضًا معدل دقة 70.3٪ في أحدث التقييمات.
يوضح Claude 3.7 التزام Anthropic بـ "الذكاء القابل للتحكم" من خلال التركيز على إنشاء نماذج بأنماط تفكير قابلة للشرح ومستقرة وقابلة للتخصيص، بدلاً من متابعة تكديس المعلمات. تتقدم Anthropic بثبات بوتيرتها الخاصة في "سباق الاستدلال" الذي تقوده R1.
Alibaba: بناء نظام بيئي صيني مفتوح المصدر مع Qwen
قام أكاديمية Damo التابعة لـ Alibaba بتحديث عائلة نماذج Qwen الخاصة بها بسرعة بعد أسبوع واحد فقط من إصدار DeepSeek R1، حيث أصدرت سلسلة Qwen 2.5 في فبراير 2025 وسلسلة Qwen 3 الجديدة في أواخر أبريل، مما يدل على استجابة قوية للمنتجات ورؤية إستراتيجية.
تتضمن سلسلة Qwen 3 إصدارات النماذج التي تتراوح من 600 مليون إلى 235 مليار معلمة. يستخدم بنية MoE للحفاظ على أداء النموذج مع استخدام موارد حوسبة أقل. يتطلب النموذج الرئيسي، Qwen3-235B-A22B، أربع وحدات معالجة رسومية عالية الأداء فقط للنشر عن طريق تحسين معلمات التنشيط، مما يقلل بشكل كبير من حاجز الدخول على الشركات لتنفيذ نماذج كبيرة. في العديد من الاختبارات القياسية، يتجاوز الأداء العام لـ Qwen 3 أداء النماذج الدولية الكبرى مثل DeepSeek R1 وOpenAI o1 وGemini 2.5 Pro.
تولي Alibaba تركيزًا قويًا على بناء نظام بيئي مفتوح المصدر، بالإضافة إلى القدرة التنافسية التكنولوجية. Qwen 3 مفتوح المصدر بالكامل بموجب ترخيص Apache 2.0، مع أوزان مفتوحة وتعليمات برمجية للتدريب وأدوات النشر، ودعم التطبيقات متعددة اللغات (119 لغة) ومتعددة الوسائط، بهدف إنشاء نموذج أساسي يمكن استخدامه وتخصيصه مباشرةً من قبل المطورين العالميين.
تكمل إستراتيجية Alibaba "التكنولوجيا + النظام البيئي" أسلوب الاختراق خفيف الوزن من DeepSeek. يؤكد أحدهما على التكرار السريع والاستدلال الرائد، بينما يؤكد الآخر على بناء النظام البيئي وتحقيق التوازن بين النطاق والتنوع. يثبت Qwen نفسه تدريجيًا كـ "مركز النظام البيئي" للنماذج الكبيرة مفتوحة المصدر في السوق المحلية، وهو رد ثابت على الاضطراب الصناعي الذي تسببت فيه DeepSeek.
Baidu: تعزيز تعدد الوسائط وأدوات المكونات الإضافية مع ترقية ERNIE Bot
قامت Baidu بترقية نموذجها الرئيسي، ERNIE Bot، بشكل كبير في مارس، حيث أصدرت ERNIE Bot 4.5 و ERNIE X1 للاختبار العام. يتم وضع ERNIE X1 كـ "نموذج تفكير عميق"، مع التركيز على تعزيز قدرة الذكاء الاصطناعي على فهم المهام المعقدة والتخطيط لها وتنفيذها.
ERNIE 4.5 هو أول نموذج كبير متعدد الوسائط أصلي من Baidu، يدعم النمذجة المشتركة للنصوص والصور والصوت والفيديو. يقلل هذا الإصدار أيضًا بشكل كبير من توليد الهلوسة ويحسن فهم التعليمات البرمجية والاستدلال المنطقي، متجاوزًا مستويات GPT-4.5 في مهام السيناريو الصيني المتعددة.
تقوم Baidu ببناء "نظام بيئي لأدوات الذكاء الاصطناعي" أكثر فائدة. يمكن لنموذج X1 استخدام وظائف البحث والأسئلة والأجوبة الخاصة بالمستندات وقراءة ملفات PDF وتنفيذ التعليمات البرمجية والتعرف على الصور والوصول إلى الويب والاستعلام عن معلومات الأعمال لتحقيق "القدرة العملية" للذكاء الاصطناعي حقًا، مما يعكس مسار وكيل Google Gemini.
أعلنت Baidu أيضًا أنها ستفتح بعض معلمات نموذج ERNIE مفتوحة المصدر بحلول نهاية يونيو 2025 وتزيد من توسيع تكامل التطبيقات مع عملاء على مستوى المؤسسات. تنتقل سلسلة ERNIE من منتج ذي حلقة مغلقة إلى نظام بيئي أساسي، يجذب المطورين والشركات من خلالواجهات برمجة التطبيقات وأنظمة المكونات الإضافية.
بدلاً من التنافس مباشرة مع R1 و Qwen في مساحة المصادر المفتوحة، تستفيد Baidu من تراكمها العميق في المحتوى الصيني وخدمات البحث ومخططات المعرفة لدمج النموذج بعمق مع سيناريوهات المنتج مثل البحث والمكتب وتدفق المعلومات، مما يخلق مجموعة منتجات ذكاء اصطناعي أكثر محلية.
باختصار، كان إصدار DeepSeek R1 أكثر من مجرد اختراق تكنولوجي؛ لقد كان محفزًا في ساحة الذكاء الاصطناعي العالمية. لقد أجبر العمالقة على تحسين أداء الاستدلال، وحفز الشركات المحلية على التنافس على المصادر المفتوحة، وحفز الشركات الأمريكية على تسريع تطوير الوكلاء والتكامل وتعدد الوسائط.
على الرغم من اختلاف استجابات عمالقة الذكاء الاصطناعي الصينيين والأمريكيين، إلا أن أهدافهم هي نفسها: إنشاء نماذج كبيرة أقوى وأكثر موثوقية ومرونة والفوز بالمنافسة الثلاثية للتكنولوجيا والنظام البيئي والمستخدمين. هذه العملية لم تنته بعد. مع إصدار GPT-5 و Gemini 3 و Claude 4 وحتى DeepSeek R2 و Qwen 4 واحدًا تلو الآخر، يدخل الذكاء الاصطناعي العالمي مرحلة جديدة من "الصعود الحلزوني".
بالنسبة لمستخدمي المؤسسات والمطورين، ستجلب هذه المنافسة المزيد من الخيارات وتكاليف أقل وأدوات نماذج كبيرة أكثر قوة. تنتشر قدرات الذكاء الاصطناعي العالمية وتتحول إلى ديمقراطية بمعدل غير مسبوق، وقد يكون الاختراق التكنولوجي الحاسم التالي قيد التنفيذ بالفعل.