تشغيل نماذج لغوية على جهاز Mac

إطلاق العنان لقوة الذكاء الاصطناعي: تشغيل DeepSeek ونماذج لغوية أخرى محليًا على جهاز Mac الخاص بك

لا يمكن إنكار جاذبية الذكاء الاصطناعي. يقدم كل من ChatGPT و Gemini من Google و Apple Intelligence القادم إمكانات غير مسبوقة، لكنهم يشتركون في تبعية حاسمة: اتصال دائم بالإنترنت. بالنسبة للأفراد الذين يعطون الأولوية للخصوصية، أو يسعون إلى تحسين الأداء، أو يهدفون إلى تخصيص تفاعلاتهم مع الذكاء الاصطناعي، فإن تشغيل نماذج لغوية كبيرة (LLMs) مثل DeepSeek أو Google’s Gemma أو Meta’s Llama مباشرة على جهاز Mac الخاص بهم يمثل بديلاً مقنعاً.

قد تبدو فكرة تشغيل LLMs محليًا أمرًا شاقًا، ولكن باستخدام الأدوات المناسبة، يمكن الوصول إليها بشكل مدهش. يوضح هذا الدليل عملية تشغيل DeepSeek ونماذج لغوية بارزة أخرى محليًا على جهاز Mac الخاص بك، مما يتطلب الحد الأدنى من الخبرة التقنية.

مزايا التنفيذ المحلي لـ LLM

تعزيز الخصوصية والأمان

تكمن الميزة الأساسية للتنفيذ المحلي لـ LLM في تعزيز الخصوصية والأمان الذي يوفره. من خلال العمل بشكل مستقل عن الخوادم الخارجية، فإنك تحتفظ بالسيطرة الكاملة على بياناتك، مما يضمن بقاء المعلومات الحساسة داخل بيئتك الآمنة. وهذا أمر بالغ الأهمية بشكل خاص عند التعامل مع البيانات السرية أو المملوكة.

أداء فائق وكفاءة في التكلفة

يوفر التنفيذ المحلي لـ LLM مزايا الأداء من خلال القضاء على زمن الوصول المرتبط بالمعالجة المستندة إلى السحابة. وهذا يترجم إلى أوقات استجابة أسرع وتجربة مستخدم أكثر سلاسة. علاوة على ذلك، فإنه يلغي رسوم API المتكررة المرتبطة بخدمات LLM المستندة إلى السحابة، مما يؤدي إلى توفير كبير في التكاليف بمرور الوقت.

تجارب ذكاء اصطناعي مخصصة

يتيح لك تشغيل LLMs محليًا تدريبهم ببيانات مملوكة، وتخصيص استجاباتهم لتتوافق بدقة مع احتياجاتك الخاصة. يفتح هذا التخصيص مستوى جديدًا من فائدة الذكاء الاصطناعي، مما يتيح لك إنشاء حلول ذكاء اصطناعي متخصصة للغاية تلبي متطلباتك الفريدة. بالنسبة للمهنيين الذين يسعون إلى الاستفادة من DeepSeek أو LLMs أخرى للمهام المتعلقة بالعمل، يمكن لهذا النهج تحسين الإنتاجية والكفاءة بشكل كبير.

تمكين المطورين

بالنسبة للمطورين، يوفر التنفيذ المحلي لـ LLM بيئة اختبار للتجريب والاستكشاف. من خلال تشغيل LLMs محليًا، يمكن للمطورين الحصول على فهم أعمق لقدراتهم وتحديد طرق مبتكرة لدمجها في سير عملهم. مع الخبرة التقنية اللازمة، يمكن للمطورين حتى الاستفادة من نماذج الذكاء الاصطناعي هذه لإنشاء أدوات وكيلية، وأتمتة المهام وتبسيط العمليات.

الحد الأدنى من المتطلبات للتنفيذ المحلي لـ LLM على جهاز Mac

خلافًا للاعتقاد الشائع، لا يتطلب تشغيل LLMs محليًا جهاز Mac عالي الجودة مزود بكميات كبيرة من ذاكرة الوصول العشوائي. من الممكن تشغيل LLM محليًا على أي جهاز Mac مزود بشريحة Apple مع ذاكرة نظام لا تقل عن 16 جيجابايت. في حين أن 8 جيجابايت من الذاكرة كافية من الناحية الفنية، إلا أن أداء النظام سيتأثر بشكل ملحوظ.

من الضروري فهم أن LLMs متوفرة في تكوينات مختلفة، ولكل منها عدد مختلف من المعلمات. كلما زاد عدد المعلمات التي يمتلكها LLM، كلما كان أكثر تعقيدًا وذكاءً. ومع ذلك، هذا يعني أيضًا أن نموذج الذكاء الاصطناعي سيتطلب مساحة تخزين وموارد نظام أكبر لتشغيله بفعالية. على سبيل المثال، يتم تقديم Llama من Meta في عدة متغيرات، بما في ذلك متغير يحتوي على 70 مليار معلمة. لتشغيل هذا النموذج، ستحتاج إلى جهاز Mac يحتوي على أكثر من 40 جيجابايت من مساحة التخزين المجانية وأكثر من 48 جيجابايت من ذاكرة النظام.

للحصول على الأداء الأمثل، فكر في تشغيل LLM مثل DeepSeek مع 7 مليارات أو 8 مليارات معلمة. يجب أن يعمل هذا بسلاسة على جهاز Mac مع 16 جيجابايت من ذاكرة النظام. إذا كان لديك حق الوصول إلى جهاز Mac أقوى، فيمكنك تجربة نماذج تناسب احتياجاتك الخاصة بشكل أفضل.

عند اختيار LLM، من الضروري مراعاة حالة الاستخدام المقصودة. تتفوق بعض LLMs في مهام الاستدلال، بينما البعض الآخر أنسب لاستعلامات الترميز. تم تحسين بعضها للمحادثات المتعلقة بـ STEM، بينما تم تصميم البعض الآخر للمحادثات متعددة الأدوار وتماسك السياق الطويل.

LM Studio: حل سهل الاستخدام للتنفيذ المحلي لـ LLM

بالنسبة لأولئك الذين يبحثون عن طريقة سهلة لتشغيل LLMs مثل DeepSeek و Llama محليًا على جهاز Mac الخاص بهم، يعد LM Studio نقطة انطلاق ممتازة. هذا البرنامج متاح مجانًا للاستخدام الشخصي.

إليك دليل خطوة بخطوة للبدء مع LM Studio:

  1. تنزيل وتثبيت LM Studio: قم بتنزيل LM Studio من موقعه الرسمي على الويب وتثبيته على جهاز Mac الخاص بك. بمجرد التثبيت، قم بتشغيل التطبيق.

  2. تحديد النموذج:

    • إذا كان هدفك الأساسي هو تشغيل DeepSeek محليًا، فيمكنك إكمال عملية الإعداد وتنزيل النموذج.
    • بدلاً من ذلك، يمكنك تخطي عملية الإعداد والبحث مباشرة عن LLM الذي تريد تنزيله وتثبيته. للقيام بذلك، انقر فوق شريط البحث في الجزء العلوي من LM Studio، والذي يطالبك بـ ‘تحديد نموذج لتحميله’.
    • يمكنك أيضًا تصفح قائمة LLMs المتاحة بالنقر فوق ترس الإعدادات في الزاوية اليمنى السفلية من LM Studio. في النافذة التي تظهر، حدد علامة التبويب ‘Model Search’ على اليسار. يمكنك أيضًا الوصول مباشرة إلى هذه النافذة باستخدام اختصار لوحة المفاتيح Command + Shift + M.
  3. تنزيل النموذج:

    • في نافذة Model Search، سترى قائمة شاملة بنماذج الذكاء الاصطناعي المتاحة للتنزيل.
    • توفر النافذة الموجودة على اليمين معلومات مفصلة حول كل نموذج، بما في ذلك وصف موجز وحدود رموزه المميزة.
    • حدد LLM الذي تريد استخدامه، مثل DeepSeek أو Meta’s Llama أو Qwen أو phi-4.
    • انقر فوق الزر ‘Download’ في الزاوية اليمنى السفلية لبدء عملية التنزيل.
    • لاحظ أنه على الرغم من أنه يمكنك تنزيل LLMs متعددة، إلا أن LM Studio يمكنه تحميل وتشغيل نموذج واحد فقط في كل مرة.

استخدام LLM الذي تم تنزيله

بمجرد اكتمال تنزيل LLM، أغلق نافذة Mission Control الخاصة بـ LM Studio. ثم، انقر فوق شريط البحث العلوي وقم بتحميل LLM الذي تم تنزيله مؤخرًا.

عند تحميل نموذج ذكاء اصطناعي، يسمح لك LM Studio بتكوين إعدادات مختلفة، بما في ذلك طول السياق وحجم مجموعة مؤشرات ترابط وحدة المعالجة المركزية. إذا لم تكن متأكدًا من هذه الإعدادات، فيمكنك تركها في قيمها الافتراضية.

يمكنك الآن البدء في التفاعل مع LLM عن طريق طرح الأسئلة أو استخدامه في مهام مختلفة.

يمكّنك LM Studio من الاحتفاظ بمحادثات منفصلة متعددة مع LLM. لبدء محادثة جديدة، انقر فوق رمز ‘+’ في شريط الأدوات في الأعلى. هذه الميزة مفيدة بشكل خاص إذا كنت تستخدم LLM في وقت واحد لمشاريع متعددة. يمكنك أيضًا إنشاء مجلدات لتنظيم محادثاتك.

إدارة موارد النظام

إذا كنت قلقًا بشأن استهلاك نموذج الذكاء الاصطناعي لموارد نظام مفرطة، فيمكنك تعديل إعدادات LM Studio للتخفيف من ذلك.

قم بالوصول إلى إعدادات LM Studio باستخدام اختصار لوحة المفاتيح Command + ,. ثم، تأكد من أن إعداد ‘Model loading guardrails’ مضبوط على ‘Strict’. سيمنع هذا الإعداد LLM من زيادة تحميل جهاز Mac الخاص بك.

يمكنك مراقبة استخدام موارد LM Studio و LLM الذي تم تنزيله في شريط الأدوات السفلي. إذا كان استخدام وحدة المعالجة المركزية أو الذاكرة مرتفعًا جدًا، ففكر في التبديل إلى نموذج ذكاء اصطناعي بعدد معلمات أقل لتقليل استهلاك الموارد.

اعتبارات الأداء

يمكن أن يختلف أداء LLMs التي تعمل محليًا اعتمادًا على عدة عوامل، بما في ذلك مواصفات أجهزة Mac، وحجم LLM، وتعقيد المهمة التي يتم تنفيذها.

في حين أن أجهزة Mac القديمة المزودة بشريحة Apple يمكنها تشغيل LLMs بسلاسة، فإن أجهزة Mac الأحدث المزودة بمزيد من ذاكرة النظام والمعالجات القوية ستوفر بشكل عام أداءً أفضل.

إدارة التخزين

لمنع امتلاء مساحة تخزين جهاز Mac الخاص بك بسرعة، من الضروري حذف أي LLMs غير مرغوب فيها بعد الانتهاء من تجربتها. يمكن أن تكون LLMs كبيرة جدًا، لذا فإن تنزيل نماذج متعددة يمكن أن يستهلك بسرعة قدرًا كبيرًا من مساحة التخزين.

ما وراء LM Studio: استكشاف خيارات أخرى

في حين أن LM Studio يوفر طريقة مريحة وسهلة الاستخدام لتشغيل LLMs محليًا، إلا أنه ليس الخيار الوحيد المتاح. توفر الأدوات والأطر الأخرى، مثل llama.cpp، ميزات وخيارات تخصيص أكثر تقدمًا. ومع ذلك، تتطلب هذه الخيارات عادةً المزيد من الخبرة التقنية للإعداد والاستخدام.

مستقبل الذكاء الاصطناعي المحلي

إن القدرة على تشغيل LLMs محليًا مهيأة لإحداث ثورة في الطريقة التي نتفاعل بها مع الذكاء الاصطناعي. مع تزايد كفاءة LLMs وإمكانية الوصول إليها، يمكننا أن نتوقع رؤية انتشار لتطبيقات الذكاء الاصطناعي المحلية التي تمكن المستخدمين بخصوصية وتحكم وتخصيص أكبر.

سواء كنت فردًا واعيًا للخصوصية، أو مطورًا يسعى إلى تجربة الذكاء الاصطناعي، أو محترفًا يتطلع إلى تحسين إنتاجيتك، فإن تشغيل LLMs محليًا على جهاز Mac الخاص بك يفتح عالمًا من الإمكانيات.