لاما Meta : من طليعة إلى أساس مؤسسي؟

خيبات الأمل في LlamaCon وتحول التوقعات

في LlamaCon، المؤتمر الافتتاحي لـ Meta المخصص لنماذج اللغات الكبيرة مفتوحة المصدر الخاصة بها (LLMs)، سادت أجواء من التوقعات التي لم تتحقق. اعترف العديد من المطورين الحاضرين بأنهم توقعوا الكشف عن نموذج استدلال متطور، أو على الأقل نموذج تقليدي قادر على التفوق على المنافسين مثل V3 من DeepSeek و Qwen، وهي مجموعة من النماذج التي طورتها شركة الحوسبة السحابية التابعة لـ Alibaba.

غذى غياب مثل هذه الإعلانات المخاوف من أن Llama كان يخسر أرضًا في السباق نحو التفوق في مجال الذكاء الاصطناعي. قبل شهر واحد فقط من المؤتمر، أطلقت Meta الجيل الرابع من عائلة Llama الخاصة بها، بما في ذلك النماذج مفتوحة الوزن Llama 4 Scout و Llama 4 Maverick. تم تصميم Scout لتحقيق أداء فعال على وحدة معالجة الرسومات GPU واحدة، بينما تم تصميم Maverick كنموذج أكبر لمنافسة النماذج التأسيسية الأخرى.

بالإضافة إلى Scout و Maverick، قدمت Meta لمحة خاطفة عن Llama 4 Behemoth، وهو "نموذج تعليمي" أكبر بكثير لا يزال قيد التدريب. الغرض من Behemoth هو تسهيل التقطير، وهي تقنية لإنشاء نماذج أصغر ومتخصصة من نموذج أكبر وأكثر عمومية.

ومع ذلك، ظهرت تقارير تشير إلى تأخيرات في إصدار Behemoth وتحديات في تحقيق أداء تنافسي مع مجموعة Llama 4. على الرغم من ادعاءات Meta بقدرات حديثة، إلا أن التصور السائد بين بعض المطورين هو أن Llama لم يعد في المقدمة.

صعود المنافسين: Qwen و DeepSeek

يعكس الإحباط المحيط بـ LlamaCon ونماذج Llama 4 شعورًا أوسع بأن نماذج LLMs مفتوحة المصدر الخاصة بـ Meta تفقد زخمها من حيث الأداء التقني وحماس المطورين. بينما تؤكد Meta التزامها بمبادئ المصادر المفتوحة، وبناء النظام البيئي، والابتكار، فإن المنافسين مثل DeepSeek و Qwen و OpenAI يتقدمون بسرعة في مجالات حيوية مثل الاستدلال واستخدام الأدوات والنشر في العالم الحقيقي.

أعرب أحد المطورين، Vineeth Sai Varikuntla، عن خيبة أمله، مشيرًا إلى أنه كان يأمل في أن تتفوق Llama على Qwen و DeepSeek في حالات الاستخدام العام والاستدلال، لكنه وجد أن Qwen متقدمة بشكل كبير.

يؤكد هذا الشعور على التحديات التي تواجهها Meta في الحفاظ على مكانة Llama كنموذج LLM رائد مفتوح المصدر. في حين أن الإصدارات الأولية من Llama حظيت باهتمام وإشادة كبيرين، إلا أن ظهور بدائل ذات قدرات متزايدة قد كثف المشهد التنافسي.

بداية واعدة: تأثير Llama 2

لتقدير السرد الحالي المحيط بـ Llama بشكل كامل، من الضروري تذكر أصوله والإثارة الأولية التي أثارها. في عام 2023، أشاد الرئيس التنفيذي لشركة Nvidia، Jensen Huang، بإطلاق Llama 2 باعتباره "ربما أكبر حدث في مجال الذكاء الاصطناعي" في ذلك العام. بحلول يوليو 2024، كان إصدار Llama 3 بمثابة اختراق، يمثل أول LLM مفتوح قادر على تحدي هيمنة OpenAI.

أثار وصول Llama 3 ارتفاعًا فوريًا في الطلب على قوة الحوسبة، مما أدى إلى زيادة أسعار تأجير وحدات معالجة الرسومات GPU، وفقًا لديلان باتيل، كبير المحللين في SemiAnalysis. بلغت عمليات البحث على Google عن "Meta" و "Llama" ذروتها أيضًا خلال هذه الفترة، مما يشير إلى اهتمام واسع النطاق بالنموذج الجديد.

تم الاحتفال بـ Llama 3 باعتباره LLM أمريكي الصنع ومفتوحًا ومن الدرجة الأولى. في حين أنه لم يتصدر باستمرار معايير الصناعة، إلا أنه مارس تأثيرًا وأهمية كبيرين داخل مجتمع الذكاء الاصطناعي. ومع ذلك، فقد تحول هذا الديناميكي تدريجيًا.

التحولات المعمارية والانتقادات

قدمت نماذج Llama 4 بنية "مزيج من الخبراء"، وهو تصميم تم الترويج له من قبل DeepSeek. تمكن هذه البنية النموذج من تنشيط الخبرة الأكثر صلة بمهمة معينة فقط، مما يحسن الكفاءة.

ومع ذلك، قوبل إصدار Llama 4 بانتقادات عندما اكتشف المطورون أن الإصدار المستخدم في القياس العام يختلف عن الإصدار المتاح للتنزيل والتوزيع. أدى هذا التناقض إلى اتهامات بـ "التلاعب بلوحة المتصدرين"، وهو ما نفته Meta، مشيرة إلى أن البديل المعني كان تجريبيًا وأن تقييم إصدارات متعددة من النموذج هو ممارسة قياسية.

على الرغم من تفسيرات Meta، ساهم الجدل في تصور مفاده أن Llama كان يكافح للحفاظ على تفوقه التنافسي. مع استمرار النماذج المنافسة في التقدم، بدا أن Meta تفتقر إلى اتجاه واضح.

قياس اعتماد المطورين: مهمة معقدة

يعد تحديد عائلة LLM الأكثر شيوعًا بين المطورين مهمة صعبة. ومع ذلك، تشير البيانات المتاحة إلى أن أحدث نماذج Llama ليست من بين القادة.

تحتل Qwen، على وجه الخصوص، مرتبة عالية باستمرار في العديد من لوحات المتصدرين عبر الإنترنت. وفقًا لـ Artificial Analysis، وهو موقع يصنف النماذج بناءً على الأداء، يتم وضع Llama 4 Maverick و Scout فوق نموذج GPT-4 الخاص بـ OpenAI مباشرةً (الذي تم إصداره في نهاية العام السابق) وأسفل Grok من xAI و Claude من Anthropic من حيث الذكاء.

تُظهر OpenRouter، وهي منصة تتيح للمطورين الوصول إلى نماذج مختلفة وتنشر لوحات المتصدرين بناءً على استخدام واجهة برمجة التطبيقات API، Llama 3.3 من بين أفضل 20 نموذجًا اعتبارًا من أوائل مايو، ولكن ليس Llama 4.

تشير نقاط البيانات هذه، على الرغم من أنها غير حاسمة، إلى أن أحدث تكرارات Llama لم تلق صدى لدى المطورين بقوة مثل سابقاتها.

ما وراء المعايير: استخدام الأدوات والاستدلال

في حين أن التقييمات القياسية لـ Llama 4 ربما كانت مخيبة للآمال، يجادل الخبراء بأن الحماس الصامت ينبع من عوامل تتجاوز مقاييس الأداء الخام.

يؤكد AJ Kourabi، المحلل في SemiAnalysis، على أهمية "استدعاء الأدوات" وقدرة النموذج على التوسع إلى ما وراء وظيفة chatbot البسيطة. يشير استدعاء الأدوات إلى قدرة النموذج على الوصول إلى التطبيقات الأخرى الموجودة على الإنترنت أو على جهاز المستخدم وتوجيهها، وهي ميزة حاسمة للذكاء الاصطناعي القائم على الوكلاء، والذي يعد بأتمتة مهام مثل حجز السفر وإدارة النفقات.

ذكرت Meta أن نماذج Llama تدعم استدعاء الأدوات من خلال واجهة برمجة التطبيقات API الخاصة بها. ومع ذلك، يجادل Theo Browne، وهو مطور ومن مستخدمي YouTube، بأن استدعاء الأدوات قد أصبح ضرورة للأهمية المتطورة مع اكتساب الأدوات القائمة على الوكلاء مكانة بارزة.

برزت Anthropic كشركة رائدة مبكرة في استخدام الأدوات، وتلحق النماذج الاحتكارية مثل OpenAI بالركب بسرعة. إن القدرة على استدعاء الأداة المناسبة بشكل موثوق به لتوليد الاستجابة الصحيحة قيمة للغاية، وقد حولت OpenAI تركيزها لإعطاء الأولوية لهذه القدرة.

يجادل Kourabi بأن غياب نموذج استدلال قوي هو مؤشر هام على أن Meta قد تخلفت عن الركب. يعتبر الاستدلال عنصرًا أساسيًا في معادلة الذكاء الاصطناعي القائم على الوكلاء، مما يمكّن النماذج من تحليل المهام وتحديد مسار العمل المناسب.

مكانة Llama: التطبيقات العملية واعتماد المؤسسات

على الرغم من المخاوف بشأن موقعه في طليعة أبحاث الذكاء الاصطناعي، لا يزال Llama أداة قيمة للعديد من المطورين والمؤسسات.

ينصح Nate Jones، رئيس قسم المنتجات في RockerBox، المطورين بتضمين Llama في سيرهم الذاتية، حيث من المحتمل أن يكون الإلمام بالنموذج مطلوبًا في المستقبل.

يعتقد Paul Baier، الرئيس التنفيذي والمحلل الرئيسي في GAI Insights، أن Llama سيظل مكونًا رئيسيًا في استراتيجيات الذكاء الاصطناعي للعديد من الشركات، وخاصة تلك الموجودة خارج صناعة التكنولوجيا.

تدرك المؤسسات أهمية النماذج مفتوحة المصدر، مع كون Llama مثالًا بارزًا، للتعامل مع المهام الأقل تعقيدًا والتحكم في التكاليف. تفضل العديد من المنظمات مزيجًا من النماذج المغلقة والمفتوحة لتلبية احتياجاتها المتنوعة.

يشير Baris Gultekin، رئيس قسم الذكاء الاصطناعي في Snowflake، إلى أن العملاء غالبًا ما يقومون بتقييم النماذج بناءً على حالات استخدامهم المحددة بدلًا من الاعتماد فقط على المعايير. نظرًا لتكلفتها المنخفضة، غالبًا ما يثبت Llama أنه كافٍ للعديد من التطبيقات.

في Snowflake، يتم استخدام Llama لمهام مثل تلخيص نصوص مكالمات المبيعات واستخراج معلومات منظمة من مراجعات العملاء. في Dremio، يقوم Llama بإنشاء رمز SQL وكتابة رسائل بريد إلكتروني تسويقية.

يقترح Tomer Shiran، المؤسس المشارك ورئيس قسم المنتجات في Dremio، أن النموذج المحدد قد لا يكون حاسمًا في 80% من التطبيقات، حيث أن معظم النماذج الآن "جيدة بما يكفي" لتلبية الاحتياجات الأساسية.

مشهد متنوع: دور Llama المتصلب

في حين أن Llama قد يتحول بعيدًا عن المنافسة المباشرة مع النماذج الاحتكارية في مجالات معينة، إلا أن المشهد العام للذكاء الاصطناعي أصبح أكثر تنوعًا، ودور Llama يترسخ داخل مجالات محددة.

يؤكد Shiran أن المعايير ليست المحرك الأساسي لاختيار النموذج، حيث يعطي المستخدمون الأولوية لاختبار النماذج في حالات الاستخدام الخاصة بهم. يعتبر أداء النموذج على بيانات العميل أمرًا بالغ الأهمية، ويمكن أن يختلف هذا الأداء بمرور الوقت.

يضيف Gultekin أن اختيار النموذج غالبًا ما يكون قرارًا خاصًا بحالة الاستخدام بدلًا من كونه حدثًا لمرة واحدة.

قد يفقد Llama المطورين الذين يسعون باستمرار إلى أحدث التطورات، لكنه يحتفظ بدعم العديد من المطورين الذين يركزون على بناء أدوات عملية مدعومة بالذكاء الاصطناعي.

يتماشى هذا الديناميكي مع استراتيجية المصادر المفتوحة الأوسع نطاقًا لـ Meta، والتي تجسدت في إطلاق React في عام 2013 وإنشاء PyTorch في عام 2016. من خلال تعزيز الأنظمة البيئية الناجحة، تستفيد Meta من مساهمات مجتمع المصادر المفتوحة.

كما يلاحظ Nate Jones ، يكتسب Zuckerberg زخمًا كبيرًا من مبادرات المصادر المفتوحة الخاصة بـ Meta.