Meta تكشف عن Llama 4: جيل جديد من نماذج الذكاء الاصطناعي

تستمر وتيرة التطور المتسارعة في مجال الذكاء الاصطناعي بلا هوادة، حيث تتنافس كبرى شركات التكنولوجيا على السيادة في إنشاء نماذج أكثر قوة وكفاءة وتنوعاً. وفي خضم هذا المشهد التنافسي الشرس، ألقت Meta قفازاً جديداً بإعلانها عن سلسلة Llama 4، وهي مجموعة من نماذج الذكاء الاصطناعي التأسيسية المصممة لدفع عجلة التطور بشكل كبير وتشغيل مجموعة واسعة من التطبيقات، بدءاً من أدوات المطورين وصولاً إلى المساعدين الموجهين للمستهلكين. يمثل هذا الإطلاق لحظة محورية لطموحات Meta في مجال الذكاء الاصطناعي، حيث لا يقدم نموذجاً واحداً فحسب، بل نموذجين متميزين متاحين على الفور، مع التلميح إلى نموذج ثالث عملاق، يحتمل أن يكون ثورياً، يخضع حالياً لتدريب صارم. تمثل عائلة Llama 4 تطوراً استراتيجياً، يتضمن خيارات معمارية متطورة ويهدف إلى تحدي المعايير الراسخة التي وضعها المنافسون مثل OpenAI و Google و Anthropic. تؤكد هذه المبادرة التزام Meta بتشكيل مستقبل الذكاء الاصطناعي، سواء من خلال المساهمة في مجتمع البحث المفتوح (وإن كان ذلك مع بعض التحفظات) أو من خلال دمج هذه القدرات المتقدمة مباشرة في نظامها البيئي الواسع لوسائل التواصل الاجتماعي ومنصات الاتصال.

Llama 4 Scout: قوة في حزمة مدمجة

يقود الهجوم نموذج Llama 4 Scout، وهو نموذج تم تصميمه مع التركيز على الكفاءة وسهولة الوصول. تسلط Meta الضوء على قدرة Scout الرائعة على العمل بفعالية مع كونه مدمجاً بما يكفي ‘ليناسب وحدة معالجة رسومات Nvidia H100 واحدة’. يعد هذا إنجازاً تقنياً هاماً وميزة استراتيجية. في عصر أصبحت فيه موارد الحوسبة، وخاصة وحدات معالجة الرسومات المتطورة مثل H100، باهظة الثمن ومطلوبة بشدة، فإن وجود نموذج قوي يمكن تشغيله على وحدة واحدة يقلل بشكل كبير من حاجز الدخول للمطورين والباحثين والمؤسسات الصغيرة. يفتح هذا الباب أمام إمكانيات نشر قدرات الذكاء الاصطناعي المتطورة في بيئات محدودة الموارد، مما قد يتيح معالجة ذكاء اصطناعي أكثر محلية أو على الجهاز، مما يقلل من زمن الاستجابة ويعزز الخصوصية.

لا تخجل Meta من مقارنة Scout بمنافسيها. تؤكد الشركة أن Scout يتفوق على العديد من النماذج البارزة في فئته الوزنية، بما في ذلك Gemma 3 و Gemini 2.0 Flash-Lite من Google، بالإضافة إلى نموذج Mistral 3.1 مفتوح المصدر الذي يحظى باحترام واسع. تستند هذه الادعاءات إلى الأداء ‘عبر مجموعة واسعة من المعايير القياسية المعروفة’. في حين أن نتائج المعايير القياسية تستدعي دائماً التدقيق الدقيق - لأنها قد لا تعكس جميع جوانب الأداء في العالم الحقيقي - فإن التفوق المستمر على النماذج الراسخة يشير إلى أن Scout يمتلك توازناً مقنعاً بين القوة والكفاءة. تقيّم هذه المعايير عادةً القدرات مثل فهم اللغة، والاستدلال، وحل المشكلات الرياضية، وتوليد الأكواد البرمجية. يشير التفوق عبر مجموعة متنوعة إلى أن Scout ليس نموذجاً متخصصاً ولكنه أداة متعددة الاستخدامات قادرة على التعامل مع مجموعة متنوعة من المهام بفعالية.

علاوة على ذلك، يتباهى Llama 4 Scout بنافذة سياق مذهلة تبلغ 10 ملايين رمز (token). تحدد نافذة السياق بشكل أساسي كمية المعلومات التي يمكن لنموذج الذكاء الاصطناعي ‘تذكرها’ أو أخذها في الاعتبار في أي وقت معين أثناء محادثة أو مهمة. تتيح نافذة السياق الأكبر للنموذج الحفاظ على التماسك خلال التفاعلات الأطول، وفهم المستندات المعقدة، واتباع التعليمات المعقدة، وتذكر التفاصيل من وقت سابق في الإدخال. تعد سعة 10 ملايين رمز كبيرة، مما يتيح تطبيقات مثل تلخيص التقارير الطويلة، وتحليل قواعد الأكواد البرمجية الواسعة، أو الانخراط في حوارات مطولة متعددة الأدوار دون فقدان مسار السرد. تعزز هذه الميزة بشكل كبير فائدة Scout للمهام المعقدة كثيفة المعلومات، مما يجعله أكثر بكثير من مجرد بديل خفيف الوزن. إن الجمع بين التوافق مع وحدة معالجة رسومات واحدة ونافذة سياق كبيرة يجعل Scout عرضاً مثيراً للاهتمام بشكل خاص للمطورين الذين يبحثون عن ذكاء اصطناعي قوي دون الحاجة إلى استثمارات ضخمة في البنية التحتية.

Maverick: المنافس الرئيسي

يتمวาง Llama 4 Maverick كشقيق أقوى في الإصدار الأولي من Llama 4. تم تصميم هذا النموذج للتنافس مباشرة مع عمالقة عالم الذكاء الاصطناعي، مع إجراء مقارنات مع نماذج هائلة مثل GPT-4o من OpenAI و Gemini 2.0 Flash من Google. يمثل Maverick محاولة Meta للريادة في مجال الذكاء الاصطناعي واسع النطاق وعالي الأداء، بهدف توفير قدرات يمكنها التعامل مع مهام الذكاء الاصطناعي التوليدي الأكثر تطلباً. إنه المحرك المخصص لتشغيل الميزات الأكثر تطوراً داخل مساعد Meta AI، المتاح الآن عبر الويب والمدمج في تطبيقات الاتصال الأساسية للشركة: WhatsApp و Messenger و Instagram Direct.

تؤكد Meta على براعة Maverick من خلال مقارنة أدائه بشكل إيجابي مع منافسيه الرئيسيين. تدعي الشركة أن Maverick يثبت جدارته أمام، وفي بعض السيناريوهات قد يتجاوز، قدرات GPT-4o و Gemini 2.0 Flash. هذه المقارنات حاسمة، حيث تمثل عائلة GPT-4o و Gemini أحدث ما توصلت إليه نماذج الذكاء الاصطناعي المتاحة على نطاق واسع. يشير النجاح هنا إلى أن Maverick قادر على توليد لغة دقيقة، واستدلال معقد، وحل مشكلات متطور، وربما تفاعلات متعددة الوسائط (على الرغم من أن الإصدار الأولي يركز بشكل كبير على المعايير النصية).

ومن المثير للاهتمام أن Meta تسلط الضوء أيضاً على كفاءة Maverick مقارنة بالنماذج الأخرى عالية الأداء، وتذكر على وجه التحديد DeepSeek-V3 في مجالات مهام الترميز والاستدلال. تذكر Meta أن Maverick يحقق نتائج مماثلة مع استخدام ‘أقل من نصف المعلمات النشطة’. يشير هذا الادعاء إلى تطورات كبيرة في بنية النموذج وتقنيات التدريب. المعلمات (Parameters)، بشكل عام، هي المتغيرات التي يتعلمها النموذج أثناء التدريب والتي تخزن معرفته. غالباً ما ترتبط ‘المعلمات النشطة’ (active parameters) ببنى مثل ‘خليط الخبراء’ (MoE)، حيث يتم استخدام مجموعة فرعية فقط من إجمالي المعلمات لأي إدخال معين. يشير تحقيق أداء مماثل بعدد أقل من المعلمات النشطة إلى أن تشغيل Maverick (تكلفة الاستدلال) قد يكون أرخص من الناحية الحسابية وربما أسرع من النماذج ذات العدد الأكبر من المعلمات النشطة، مما يوفر نسبة أداء أفضل لكل واط أو أداء أفضل لكل دولار. هذه الكفاءة ضرورية لنشر الذكاء الاصطناعي على النطاق الذي تعمل به Meta، حيث يمكن أن تترجم التحسينات الهامشية إلى وفورات كبيرة في التكاليف وتحسين تجربة المستخدم. لذلك، يهدف Maverick إلى تحقيق توازن بين الأداء العالي المستوى والكفاءة التشغيلية، مما يجعله مناسباً لكل من تطبيقات المطورين الصعبة والدمج في المنتجات التي تخدم مليارات المستخدمين.

Behemoth: العملاق المنتظر

بينما يتوفر Scout و Maverick الآن، أعلنت Meta أيضاً مسبقاً عن تطوير نموذج أكبر حجماً وربما أكثر قوة: Llama 4 Behemoth. كما يوحي الاسم، يُنظر إلى Behemoth على أنه عملاق في مشهد الذكاء الاصطناعي. صرح الرئيس التنفيذي لشركة Meta، Mark Zuckerberg، علناً عن الطموح لهذا النموذج، واصفاً إياه بأنه قد يكون ‘نموذج الأساس الأعلى أداءً في العالم’ عند الانتهاء من تدريبه. يشير هذا إلى نية Meta لدفع حدود قدرات الذكاء الاصطناعي المطلقة.

حجم Behemoth مذهل. كشفت Meta أنه يمتلك 288 مليار معلمة نشطة، مستمدة من مجموعة ضخمة تضم 2 تريليون معلمة إجمالية. يشير هذا بقوة إلى استخدام بنية ‘خليط الخبراء’ (MoE) متطورة على نطاق غير مسبوق. يشير الحجم الهائل للنموذج إلى أنه يتم تدريبه على مجموعات بيانات واسعة ومصمم لالتقاط أنماط ومعرفة معقدة بشكل لا يصدق. في حين أن تدريب مثل هذا النموذج يعد مهمة هائلة، تتطلب موارد حوسبة هائلة ووقتاً طويلاً، فإن العائد المحتمل كبير بنفس القدر.

على الرغم من أن Behemoth لم يتم إصداره بعد، إلا أن Meta تضع بالفعل توقعات عالية لأدائه. تدعي الشركة أنه، بناءً على التدريب والتقييم المستمرين، يُظهر Behemoth القدرة على التفوق على المنافسين الرائدين مثل GPT-4.5 المتوقع من OpenAI و Claude Sonnet 3.7 من Anthropic، لا سيما ‘في العديد من معايير STEM’. غالباً ما يُنظر إلى النجاح في معايير العلوم والتكنولوجيا والهندسة والرياضيات (STEM) على أنه مؤشر رئيسي لقدرات الاستدلال وحل المشكلات المتقدمة. يمكن للنماذج التي تتفوق في هذه المجالات أن تفتح آفاقاً جديدة في البحث العلمي، وتسرع عمليات التصميم الهندسي، وتعالج التحديات التحليلية المعقدة التي تتجاوز حالياً قدرة الذكاء الاصطناعي. يشير التركيز على STEM إلى أن Meta لا ترى Behemoth مجرد نموذج لغوي، بل كمحرك قوي للابتكار والاكتشاف. يؤكد تطوير Behemoth استراتيجية Meta طويلة الأجل: ليس فقط المنافسة على أعلى مستوى ولكن ربما إعادة تعريف سقف الأداء لنماذج الذكاء الاصطناعي التأسيسية. سيتم مراقبة إصداره النهائي عن كثب من قبل مجتمع الذكاء الاصطناعي بأكمله.

تحت الغطاء: ميزة خليط الخبراء (MoE)

أحد التحولات التكنولوجية الرئيسية التي تدعم سلسلة Llama 4 هو اعتماد Meta لبنية ‘خليط الخبراء’ (mixture of experts - MoE). يمثل هذا تطوراً كبيراً عن تصميمات النماذج المتجانسة (monolithic)، حيث يعالج النموذج بأكمله كل إدخال. يوفر MoE مساراً لبناء نماذج أكبر بكثير وأكثر قدرة دون زيادة متناسبة في تكلفة الحوسبة أثناء الاستدلال (inference) (عملية استخدام النموذج لتوليد المخرجات).

في نموذج MoE، يتكون النظام من العديد من الشبكات ‘الخبيرة’ الأصغر والمتخصصة. عند تلقي إدخال (مثل مطالبة نصية)، تقوم شبكة توجيه أو آلية توجيه (gating network or router mechanism) بتحليل الإدخال وتحديد أي مجموعة فرعية من الخبراء هي الأنسب للتعامل مع تلك المهمة المحددة أو نوع المعلومات. يتم تنشيط هؤلاء الخبراء المختارين فقط لمعالجة الإدخال، بينما يظل الباقون خاملين. هذه الحوسبة المشروطة هي الميزة الأساسية لـ MoE.

الفوائد ذات شقين:

  1. قابلية التوسع (Scalability): تسمح للمطورين بزيادة العدد الإجمالي للمعلمات في النموذج بشكل كبير (مثل 2 تريليون في Behemoth) لأنه يتم استخدام جزء صغير منها فقط (المعلمات النشطة، على سبيل المثال، 288 مليار لـ Behemoth) لأي استدلال واحد. وهذا يمكّن النموذج من تخزين كمية أكبر بكثير من المعرفة وتعلم وظائف أكثر تخصصاً داخل شبكاته الخبيرة.
  2. الكفاءة (Efficiency): نظراً لأن جزءاً فقط من النموذج يكون نشطاً في أي وقت معين، يمكن أن تكون تكلفة الحوسبة واستهلاك الطاقة المطلوبين للاستدلال أقل بكثير مقارنة بنموذج كثيف (dense model) بحجم إجمالي مماثل للمعلمات. وهذا يجعل تشغيل النماذج الكبيرة جداً أكثر عملية واقتصادية، خاصة على نطاق واسع.

يشير ذكر Meta الصريح للتحول إلى MoE لـ Llama 4 إلى أن هذه البنية أساسية لتحقيق أهداف الأداء والكفاءة المحددة لـ Scout و Maverick وخاصة Behemoth العملاق. في حين أن بنى MoE تقدم تعقيداتها الخاصة، لا سيما في تدريب شبكة التوجيه بفعالية وإدارة الاتصال بين الخبراء، فإن اعتمادها من قبل اللاعبين الرئيسيين مثل Meta يشير إلى أهميتها المتزايدة في دفع حدود تطوير الذكاء الاصطناعي. من المحتمل أن يكون هذا الاختيار المعماري عاملاً رئيسياً وراء الكفاءة المزعومة لـ Maverick ضد DeepSeek-V3 والحجم الهائل المتصور لـ Behemoth.

استراتيجية التوزيع: الوصول المفتوح والتجارب المتكاملة

تتبع Meta استراتيجية ذات شقين لنشر واستخدام نماذج Llama 4 الخاصة بها، مما يعكس الرغبة في تعزيز نظام بيئي واسع للمطورين والاستفادة من قاعدة مستخدميها الضخمة.

أولاً، يتم توفير Llama 4 Scout و Llama 4 Maverick للتنزيل. يمكن للمطورين والباحثين الحصول على النماذج مباشرة من Meta أو من خلال منصات شائعة مثل Hugging Face، وهو مركز رئيسي لمجتمع تعلم الآلة. يشجع هذا النهج على التجريب، ويسمح للأطراف الخارجية ببناء تطبيقات فوق Llama 4، ويسهل التدقيق المستقل والتحقق من قدرات النماذج. من خلال إتاحة النماذج للتنزيل، تساهم Meta في مشهد الذكاء الاصطناعي الأوسع، مما يتيح الابتكار خارج فرق منتجاتها الخاصة. يتماشى هذا، جزئياً على الأقل، مع روح البحث والتطوير المفتوح التي سرعت تاريخياً التقدم في هذا المجال.

ثانياً، وفي الوقت نفسه، تقوم Meta بدمج قدرات Llama 4 بعمق في منتجاتها الخاصة. يتم طرح مساعد Meta AI، المدعوم بهذه النماذج الجديدة، عبر وجود الشركة على الويب، وربما الأهم من ذلك، داخل تطبيقات الاتصال المستخدمة على نطاق واسع: WhatsApp و Messenger و Instagram Direct. يضع هذا على الفور أدوات ذكاء اصطناعي متقدمة في أيدي مليارات المستخدمين المحتملين في جميع أنحاء العالم. يخدم هذا التكامل أغراضاً استراتيجية متعددة: فهو يوفر قيمة فورية لمستخدمي منصات Meta، ويولد كميات هائلة من بيانات التفاعل في العالم الحقيقي (والتي يمكن أن تكون لا تقدر بثمن لمزيد من تحسين النماذج، مع مراعاة اعتبارات الخصوصية)، ويضع تطبيقات Meta كمنصات متطورة مملوءة بذكاء الذكاء الاصطناعي. إنه يخلق حلقة تغذية راجعة قوية ويضمن استفادة Meta بشكل مباشر من تطوراتها في مجال الذكاء الاصطناعي من خلال تعزيز خدماتها الأساسية.

تتناقض هذه الاستراتيجية المزدوجة مع الأساليب التي يتبعها بعض المنافسين. بينما تقدم OpenAI بشكل أساسي الوصول من خلال واجهات برمجة التطبيقات (APIs) (مثل GPT-4) وتدمج Google Gemini بعمق في خدماتها مع تقديم الوصول عبر واجهة برمجة التطبيقات أيضاً، فإن تركيز Meta على جعل النماذج نفسها قابلة للتنزيل (مع شروط الترخيص) يمثل نهجاً متميزاً يهدف إلى جذب الانتباه داخل كل من مجتمع المطورين وسوق المستخدم النهائي.

مسألة المصدر المفتوح: معضلة الترخيص

تشير Meta باستمرار إلى إصدارات نماذج Llama الخاصة بها، بما في ذلك Llama 4، على أنها ‘مفتوحة المصدر’ (open-source). ومع ذلك، كان هذا التوصيف نقطة خلاف متكررة داخل مجتمع التكنولوجيا، ويرجع ذلك أساساً إلى الشروط المحددة لترخيص Llama. في حين أن النماذج متاحة بالفعل للآخرين لاستخدامها وتعديلها، يفرض الترخيص قيوداً معينة تحيد عن التعريفات القياسية للمصدر المفتوح التي تدافع عنها منظمات مثل Open Source Initiative (OSI).

أهم قيد يتعلق بالاستخدام التجاري واسع النطاق. ينص ترخيص Llama 4 على أن الكيانات التجارية التي تتباهى بأكثر من 700 مليون مستخدم نشط شهرياً (MAU) يجب أن تحصل على إذن صريح من Meta قبل نشر أو استخدام نماذج Llama 4. تمنع هذه العتبة فعلياً أكبر شركات التكنولوجيا - المنافسين المباشرين المحتملين لـ Meta - من استخدام Llama 4 بحرية لتعزيز خدماتهم الخاصة دون موافقة Meta.

أدى هذا القيد إلى قيام Open Source Initiative، وهي جهة معترف بها على نطاق واسع كمشرفة على مبادئ المصدر المفتوح، بالتصريح سابقاً (بخصوص Llama 2، الذيكان له شروط مماثلة) بأن مثل هذه الشروط تخرج الترخيص ‘من فئة ‘المصدر المفتوح’’. يجب ألا تميز تراخيص المصدر المفتوح الحقيقية، وفقاً لتعريف OSI، ضد مجالات العمل أو أشخاص أو مجموعات معينة، وهي تسمح عموماً بالاستخدام التجاري الواسع دون الحاجة إلى إذن خاص بناءً على حجم المستخدم أو وضعه في السوق.

يمكن اعتبار نهج Meta شكلاً من أشكال الترخيص ‘المتاح المصدر’ (source-available) أو ‘المجتمعي’ (community) بدلاً من كونه مفتوح المصدر بحتاً. من المحتمل أن يكون الأساس المنطقي وراء استراتيجية الترخيص هذه متعدد الأوجه. فهو يسمح لـ Meta بكسب النوايا الحسنة وتعزيز الابتكار داخل مجتمعات المطورين والباحثين الأوسع من خلال توفير الوصول إلى نماذج قوية. وفي الوقت نفسه، يحمي المصالح الاستراتيجية لـ Meta عن طريق منع أكبر منافسيها من الاستفادة المباشرة من استثماراتها الكبيرة في الذكاء الاصطناعي ضدها. في حين أن هذا النهج العملي قد يخدم أهداف Meta التجارية، فإن استخدام مصطلح ‘مفتوح المصدر’ لا يزال مثيراً للجدل، لأنه يمكن أن يخلق ارتباكاً ويحتمل أن يخفف من معنى مصطلح يحمل دلالات محددة للحرية والوصول غير المقيد داخل عالم تطوير البرمجيات. يسلط هذا النقاش المستمر الضوء على التقاطع المعقد بين التعاون المفتوح واستراتيجية الشركة والملكية الفكرية في مجال الذكاء الاصطناعي سريع التطور.

تخطط Meta لمشاركة مزيد من التفاصيل حول خارطة طريق الذكاء الاصطناعي الخاصة بها والتفاعل مع المجتمع في مؤتمرها القادم LlamaCon، المقرر عقده في 29 أبريل. من المرجح أن يوفر هذا الحدث مزيداً من الأفكار حول الأسس التقنية لـ Llama 4، والتكرارات المستقبلية المحتملة، ورؤية الشركة الأوسع لدور الذكاء الاصطناعي داخل نظامها البيئي وخارجه. يشير إصدار Llama 4 Scout و Maverick، إلى جانب الوعد بـ Behemoth، بوضوح إلى تصميم Meta على أن تكون قوة رائدة في ثورة الذكاء الاصطناعي، وتشكيل مسارها من خلال الابتكار التكنولوجي والنشر الاستراتيجي.