خبرة المجال: ضبط ودمج وقدرات نماذج اللغة الكبيرة
تواجه نماذج اللغة الكبيرة (LLMs) مثل Llama و Mistral تحديًا في المجالات التقنية المتخصصة. يستكشف هذا المقال استراتيجيات التكييف مثل الضبط الدقيق (fine-tuning) ودمج النماذج (merging)، خاصة باستخدام SLERP، لغرس المعرفة المتخصصة مع الحفاظ على القدرات العامة. الهدف هو إنشاء أدوات ذكاء اصطناعي فعالة للاكتشاف العلمي والابتكار الهندسي، مع التركيز على ظهور قدرات جديدة.