حققت شركة Meta Platforms، عملاق التكنولوجيا وراء Facebook و Instagram و WhatsApp، تقدمًا كبيرًا في مجال الذكاء الاصطناعي مع إطلاق سلسلة Llama 4. يمثل هذا الإطلاق الجيل التالي من عائلة نماذج Llama المفتوحة والمؤثرة للشركة، مما يشير إلى التزام مستمر بالمنافسة في طليعة تطوير الذكاء الاصطناعي واحتمالية إعادة تشكيل الديناميكيات التنافسية داخل الصناعة. يقدم الإصدار ثلاثي من النماذج المتميزة، كل منها مصمم بقدرات محددة وبنى حسابية، بهدف تلبية مجموعة متنوعة من التطبيقات بدءًا من وظائف الدردشة العامة إلى مهام معالجة البيانات المعقدة.
تقديم عائلة Llama 4: Scout و Maverick و Behemoth
يشمل الطرح الأولي لجيل Llama 4 ثلاثة نماذج محددة الأسماء: Llama 4 Scout و Llama 4 Maverick و Llama 4 Behemoth الذي لا يزال قيد التطوير. أشارت Meta إلى أن أساس هذه النماذج يعتمد على مجموعات بيانات تدريبية واسعة النطاق تتألف من كميات هائلة من النصوص والصور ومحتوى الفيديو غير المصنف. يهدف نهج التدريب متعدد الوسائط هذا إلى تزويد النماذج بفهم بصري متطور و ‘واسع’، مما يوسع قدراتها إلى ما هو أبعد من التفاعلات النصية البحتة.
يبدو أن مسار تطوير Llama 4 قد تأثر بالضغوط التنافسية داخل قطاع الذكاء الاصطناعي سريع التطور. تشير التقارير إلى أن ظهور وكفاءة النماذج المفتوحة الملحوظة من مختبرات الذكاء الاصطناعي الدولية، وخاصة مختبر DeepSeek الصيني، دفع Meta إلى تسريع جهودها التطويرية الخاصة. من المفهوم أن Meta خصصت موارد كبيرة، ربما عن طريق إنشاء فرقمتخصصة أو ‘غرف حرب’، لتحليل وفهم المنهجيات التي يستخدمها المنافسون مثل DeepSeek، مع التركيز بشكل خاص على التقنيات التي نجحت في خفض التكاليف الحسابية المرتبطة بتشغيل ونشر نماذج الذكاء الاصطناعي المتقدمة. يسلط هذا التيار التنافسي الضوء على السباق المحتدم بين كبرى شركات التكنولوجيا والمؤسسات البحثية لتحقيق اختراقات في أداء الذكاء الاصطناعي وكفاءته التشغيلية.
تختلف إمكانية الوصول عبر تشكيلة Llama 4 الجديدة. يتم توفير Scout و Maverick بشكل مفتوح لمجتمع المطورين والجمهور من خلال القنوات المعروفة، بما في ذلك بوابة Meta الخاصة Llama.com ومنصات الشركاء مثل مركز تطوير الذكاء الاصطناعي المستخدم على نطاق واسع، Hugging Face. يؤكد هذا التوفر المفتوح على استراتيجية Meta لتعزيز نظام بيئي أوسع حول نماذج Llama الخاصة بها. ومع ذلك، يظل Behemoth، الذي يُعتبر أقوى نموذج في السلسلة الحالية، قيد التطوير ولم يتم إصداره للاستخدام العام بعد. بالتزامن مع ذلك، تدمج Meta هذه القدرات الجديدة في منتجاتها الموجهة للمستخدمين. أعلنت الشركة أن مساعدها الذكي الخاص، Meta AI، الذي يعمل عبر مجموعة تطبيقاتها مثل WhatsApp و Messenger و Instagram، قد تم ترقيته للاستفادة من قوة Llama 4. يتم طرح هذا التكامل في أربعين دولة، على الرغم من أن الميزات المتقدمة متعددة الوسائط (التي تجمع بين النص والصورة وربما أنواع بيانات أخرى) تقتصر في البداية على المستخدمين الناطقين باللغة الإنجليزية داخل الولايات المتحدة.
التنقل في مشهد الترخيص
على الرغم من التركيز على الانفتاح لبعض النماذج، فإن نشر واستخدام Llama 4 يخضع لشروط ترخيص محددة قد تشكل عقبات لبعض المطورين والمؤسسات. هناك قيد ملحوظ يحظر صراحةً على المستخدمين والشركات التي يقع مقرها الرئيسي أو مكان عملها الأساسي داخل الاتحاد الأوروبي (European Union) استخدام أو توزيع نماذج Llama 4. من المحتمل أن يكون هذا القيد الجغرافي نتيجة مباشرة لمتطلبات الحوكمة الصارمة التي يفرضها قانون الذكاء الاصطناعي (AI Act) الشامل للاتحاد الأوروبي ولوائح خصوصية البيانات الحالية مثل GDPR. يبدو أن التنقل في هذه الأطر التنظيمية المعقدة يمثل اعتبارًا مهمًا يشكل استراتيجية نشر Meta في المنطقة.
علاوة على ذلك، وكما هو الحال مع هيكل ترخيص إصدارات Llama السابقة، تفرض Meta شرطًا على الشركات الكبيرة. يُطلب من الشركات التي تفتخر بقاعدة مستخدمين تتجاوز 700 مليون مستخدم نشط شهريًا أن تطلب رسميًا ترخيصًا خاصًا مباشرة من Meta. والأهم من ذلك، أن قرار منح هذا الترخيص أو رفضه يقع بالكامل ضمن ‘تقدير Meta المطلق’. يمنح هذا البند Meta فعليًا السيطرة على كيفية استخدام نماذجها الأكثر تقدمًا من قبل شركات التكنولوجيا الكبيرة التي قد تكون منافسة، مع الحفاظ على درجة من الرقابة الاستراتيجية على الرغم من الطبيعة ‘المفتوحة’ لأجزاء من نظام Llama البيئي. تؤكد هذه الفروق الدقيقة في الترخيص على التفاعل المعقد بين تعزيز الابتكار المفتوح والاحتفاظ بالسيطرة الاستراتيجية في مجال الذكاء الاصطناعي عالي المخاطر.
في اتصالاتها الرسمية المصاحبة للإطلاق، وصفت Meta إصدار Llama 4 بأنه لحظة محورية. صرحت الشركة في منشور مدونة: ‘تمثل نماذج Llama 4 هذه بداية حقبة جديدة لنظام Llama البيئي’، مضيفةً: ‘هذه مجرد البداية لمجموعة Llama 4’. يشير هذا البيان التطلعي إلى خارطة طريق للتطوير والتوسع المستمر ضمن جيل Llama 4، مما يضع هذا الإطلاق ليس كوجهة نهائية ولكن كعلامة فارقة مهمة في رحلة مستمرة لتقدم الذكاء الاصطناعي.
الابتكارات المعمارية: نهج خليط الخبراء (MoE)
من الخصائص التقنية الرئيسية التي تميز سلسلة Llama 4 اعتمادها على بنية Mixture of Experts (MoE). تسلط Meta الضوء على أن هذه هي المجموعة الأولى ضمن عائلة Llama التي تستخدم هذا النموذج التصميمي المحدد. يمثل نهج MoE تحولًا كبيرًا في كيفية هيكلة وتدريب نماذج اللغة الكبيرة، مما يوفر مزايا ملحوظة من حيث الكفاءة الحسابية، سواء أثناء مرحلة التدريب كثيفة الموارد أو أثناء المرحلة التشغيلية عند الاستجابة لاستفسارات المستخدمين.
في جوهرها، تعمل بنية MoE عن طريق تقسيم مهام معالجة البيانات المعقدة إلى مهام فرعية أصغر وأكثر قابلية للإدارة. ثم يتم توجيه هذه المهام الفرعية أو تفويضها بذكاء إلى مجموعة من مكونات الشبكة العصبية الأصغر والمتخصصة، والتي يشار إليها باسم ‘الخبراء’. يتم تدريب كل خبير عادةً للتفوق في أنواع معينة من البيانات أو المهام. تحدد آلية البوابة داخل البنية أي خبير أو مجموعة من الخبراء هي الأنسب للتعامل مع جزء معين من بيانات الإدخال أو الاستعلام. يتناقض هذا مع بنيات النماذج الكثيفة التقليدية حيث يعالج النموذج بأكمله كل جزء من المدخلات.
تنبع مكاسب الكفاءة من حقيقة أن مجموعة فرعية فقط من إجمالي معلمات النموذج (المعلمات ‘النشطة’ التي تنتمي إلى الخبراء المختارين) يتم تشغيلها لأي مهمة معينة. يقلل هذا التنشيط الانتقائي بشكل كبير من الحمل الحسابي مقارنة بتنشيط نموذج ضخم وكثيف بالكامل.
قدمت Meta تفاصيل محددة توضح هذه البنية أثناء العمل:
- Maverick: يمتلك هذا النموذج عددًا كبيرًا من المعلمات الإجمالية يبلغ 400 مليار. ومع ذلك، بفضل تصميم MoE الذي يشتمل على 128 ‘خبيرًا’ متميزًا، يتم تشغيل 17 مليار معلمة فقط بشكل نشط في أي وقت معين أثناء المعالجة. غالبًا ما تُعتبر المعلمات وكيلًا تقريبيًا لقدرة النموذج على التعلم وتعقيد حل المشكلات.
- Scout: منظم بشكل مشابه، يتميز Scout بـ 109 مليار معلمة إجمالية موزعة على 16 ‘خبيرًا’، مما ينتج عنه نفس الـ 17 مليار معلمة نشطة مثل Maverick.
يتيح هذا الاختيار المعماري لـ Meta بناء نماذج ذات سعة إجمالية هائلة (أعداد كبيرة من المعلمات الإجمالية) مع الحفاظ على متطلبات حسابية يمكن التحكم فيها للاستدلال (معالجة الاستعلام)، مما يجعلها أكثر عملية للنشر والتشغيل على نطاق واسع.
معايير الأداء وتخصصات النماذج
وضعت Meta نماذجها الجديدة في موقع تنافسي، حيث أصدرت نتائج قياس أداء داخلية تقارن Llama 4 بنماذج بارزة من منافسين مثل OpenAI و Google و Anthropic.
Maverick، الذي حددته Meta على أنه الأمثل لتطبيقات ‘المساعد العام والدردشة’، بما في ذلك مهام مثل الكتابة الإبداعية وتوليد الأكواد، يُقال إنه يُظهر أداءً متفوقًا مقارنة بنماذج مثل GPT-4o من OpenAI و Gemini 2.0 من Google في معايير محددة. تغطي هذه المعايير مجالات مثل الكفاءة في البرمجة، والاستدلال المنطقي، والقدرات متعددة اللغات، والتعامل مع تسلسلات طويلة من النص (long-context)، وفهم الصور. ومع ذلك، تشير بيانات Meta الخاصة إلى أن Maverick لا يتفوق باستمرار على قدرات أحدث وأقوى النماذج المتاحة حاليًا، مثل Gemini 2.5 Pro من Google، أو Claude 3.7 Sonnet من Anthropic، أو GPT-4.5 المتوقع من OpenAI. يشير هذا إلى أن Maverick يهدف إلى الحصول على مركز قوي في فئة الأداء العالي ولكنه قد لا يدعي الصدارة المطلقة عبر جميع المقاييس ضد أحدث النماذج الرائدة من المنافسين.
Scout، من ناحية أخرى، مصمم لنقاط قوة مختلفة. يتم تسليط الضوء على قدراته في مهام تتضمن تلخيص المستندات الشاملة والاستدلال على قواعد الأكواد الكبيرة والمعقدة. ميزة فريدة ومحددة بشكل خاص لـ Scout هي نافذة السياق (context window) الكبيرة بشكل استثنائي، القادرة على التعامل مع ما يصل إلى 10 ملايين توكن (tokens). التوكنات هي الوحدات الأساسية للنص أو الكود التي تعالجها نماذج اللغة (على سبيل المثال، قد يتم تقسيم كلمة إلى عدة توكنات مثل ‘ت-ف-ه-م’). تترجم نافذة السياق البالغة 10 ملايين توكن، من الناحية العملية، إلى القدرة على استيعاب ومعالجة كمية هائلة من المعلومات في وقت واحد - ربما ما يعادل ملايين الكلمات أو مكتبات كاملة من الأكواد. يتيح ذلك لـ Scout الحفاظ على التماسك والفهم عبر المستندات الطويلة للغاية أو مشاريع البرمجة المعقدة، وهو إنجاز يمثل تحديًا للنماذج ذات نوافذ السياق الأصغر. يمكنه أيضًا معالجة الصور جنبًا إلى جنب مع هذا الإدخال النصي الهائل.
تعكس متطلبات الأجهزة لتشغيل هذه النماذج حجمها وبنيتها. وفقًا لتقديرات Meta:
- Scout فعال نسبيًا، وقادر على العمل على وحدة معالجة رسومات (GPU) واحدة متطورة من نوع Nvidia H100.
- Maverick، مع عدد معلمات إجمالي أكبر على الرغم من كفاءة MoE، يتطلب موارد أكبر، ويتطلب نظام Nvidia H100 DGX (الذي يحتوي عادةً على وحدات معالجة رسومات H100 متعددة) أو قوة حسابية معادلة.
من المتوقع أن يتطلب نموذج Behemoth القادم بنية تحتية للأجهزة أكثر قوة. كشفت Meta أن Behemoth مصمم بـ 288 مليار معلمة نشطة (من أصل ما يقرب من تريليوني معلمة إجمالية، موزعة على 16 خبيرًا). تضع معايير الأداء الداخلية الأولية Behemoth في موقع يتفوق على نماذج مثل GPT-4.5 و Claude 3.7 Sonnet و Gemini 2.0 Pro (على الرغم من أنه لا يتفوق بشكل ملحوظ على Gemini 2.5 Pro الأكثر تقدمًا) في العديد من التقييمات التي تركز على مهارات STEM (العلوم والتكنولوجيا والهندسة والرياضيات)، لا سيما في مجالات مثل حل المشكلات الرياضية المعقدة.
ومع ذلك، تجدر الإشارة إلى أنه لم يتم تصميم أي من نماذج Llama 4 المعلن عنها حاليًا بشكل صريح كنماذج ‘استدلال’ على غرار مفاهيم o1 و o3-mini التطويرية من OpenAI. تتضمن نماذج الاستدلال المتخصصة هذه عادةً آليات للتحقق الداخلي من الحقائق والتنقيح التكراري لإجاباتها، مما يؤدي إلى استجابات قد تكون أكثر موثوقية ودقة، خاصة للاستفسارات الواقعية. غالبًا ما يكون المقابل هو زيادة زمن الاستجابة، مما يعني أنها تستغرق وقتًا أطول لتوليد الاستجابات مقارنة بنماذج اللغة الكبيرة الأكثر تقليدية مثل تلك الموجودة في عائلة Llama 4، والتي تعطي الأولوية للتوليد الأسرع.
تعديل حدود المحادثة: المواضيع المثيرة للجدل
أحد الجوانب المثيرة للاهتمام في إطلاق Llama 4 يتضمن تعديل Meta المتعمد لسلوك استجابة النماذج، لا سيما فيما يتعلق بالمواضيع الحساسة أو المثيرة للجدل. ذكرت الشركة صراحة أنها قامت بتعديل نماذج Llama 4 لتكون أقل احتمالاً لرفض الإجابة على الأسئلة ‘المثيرة للجدل’ مقارنة بأسلافها في عائلة Llama 3.
وفقًا لـ Meta، أصبح Llama 4 الآن أكثر ميلًا للتفاعل مع المواضيع السياسية والاجتماعية ‘المتنازع عليها’ حيث ربما كانت الإصدارات السابقة تتردد أو تقدم رفضًا عامًا. علاوة على ذلك، تدعي الشركة أن Llama 4 يُظهر نهجًا ‘أكثر توازنًا بشكل كبير’ فيما يتعلق بأنواع المطالبات التي سترفض التفاعل معها تمامًا. الهدف المعلن هو تقديم استجابات مفيدة وواقعية دون فرض أحكام.
أوضح متحدث باسم Meta هذا التحول، قائلاً لـ TechCrunch: ‘[Y]ou can count on [Llama 4] to provide helpful, factual responses without judgment… [W]e’re continuing to make Llama more responsive so that it answers more questions, can respond to a variety of different viewpoints […] and doesn’t favor some views over others.’
يحدث هذا التعديل على خلفية النقاش العام والسياسي المستمر المحيط بالتحيزات المتصورة في أنظمة الذكاء الاصطناعي. أعربت بعض الفصائل السياسية والمعلقين، بما في ذلك شخصيات بارزة مرتبطة بإدارة Trump مثل Elon Musk ورأسمالي المغامرة David Sacks، عن اتهامات بأن روبوتات الدردشة الشهيرة للذكاء الاصطناعي تظهر تحيزًا سياسيًا، غالبًا ما يوصف بأنه ‘woke’، بزعم أنها تفرض رقابة على وجهات النظر المحافظة أو تقدم معلومات منحازة نحو منظور ليبرالي. انتقد Sacks، على سبيل المثال، ChatGPT من OpenAI في الماضي، مدعيًا أنه ‘تمت برمجته ليكون woke’ وغير موثوق به في الأمور السياسية.
ومع ذلك، فإن تحدي تحقيق الحياد الحقيقي والقضاء على التحيز في الذكاء الاصطناعي معترف به على نطاق واسع داخل المجتمع التقني باعتباره مشكلة معقدة ومستمرة بشكل لا يصدق (‘intractable’). تتعلم نماذج الذكاء الاصطناعي الأنماط والارتباطات من مجموعات البيانات الضخمة التي يتم تدريبها عليها، وتعكس مجموعات البيانات هذه حتمًا التحيزات الموجودة في النصوص والصور التي أنشأها الإنسان والتي تحتوي عليها. أثبتت الجهود المبذولة لإنشاء ذكاء اصطناعي غير متحيز تمامًا أو محايد سياسيًا، حتى من قبل الشركات التي تهدف صراحة إلى ذلك، أنها صعبة. ورد أن مشروع الذكاء الاصطناعي الخاص بـ Elon Musk، xAI، واجه تحديات في تطوير روبوت محادثة يتجنب تأييد مواقف سياسية معينة على أخرى.
على الرغم من الصعوبات التقنية الكامنة، يبدو أن الاتجاه بين مطوري الذكاء الاصطناعي الرئيسيين، بما في ذلك Meta و OpenAI، يتجه نحو تعديل النماذج لتكون أقل تجنبًا للمواضيع المثيرة للجدل. يتضمن ذلك معايرة مرشحات الأمان وإرشادات الاستجابة بعناية للسماح بالتفاعل مع نطاق أوسع من الأسئلة مما كان مسموحًا به سابقًا، مع الاستمرار في محاولة التخفيف من توليد محتوى ضار أو متحيز بشكل علني. يعكس هذا الضبط الدقيق التوازن الدقيق الذي يجب على شركات الذكاء الاصطناعي تحقيقه بين تعزيز الخطاب المفتوح، وضمان سلامة المستخدم، والتنقل في التوقعات الاجتماعية والسياسية المعقدة المحيطة بتقنياتها القوية. يمثل إصدار Llama 4، بتعديلاته المعلنة صراحة في التعامل مع الاستفسارات المثيرة للجدل، أحدث خطوة لـ Meta في التنقل في هذا المشهد المعقد.