Tag: Fine-Tuning

جوجل تطلق Gemma 3 1B للتطبيقات

Gemma 3 1B من Google هو نموذج لغوي صغير (SLM) بحجم 529 ميجابايت فقط، مصمم للتطبيقات المحمولة والويب. يوفر إمكانات لغوية متطورة، ويعمل دون اتصال بالإنترنت، ويحافظ على خصوصية البيانات، ويتيح تكامل اللغة الطبيعية. يمكن للمطورين تخصيصه وضبطه لتحقيق الأداء الأمثل.

جوجل تطلق Gemma 3 1B للتطبيقات

Tradutor: مترجم ذكاء اصطناعي مفتوح المصدر

يقدم Tradutor نموذج ترجمة آلي مبتكر للغة البرتغالية الأوروبية، يعالج النقص في أنظمة الترجمة الحالية التي تركز بشكل أساسي على البرتغالية البرازيلية. إنه مشروع مفتوح المصدر يعتمد على الذكاء الاصطناعي.

Tradutor: مترجم ذكاء اصطناعي مفتوح المصدر

تدريب ذكاء اصطناعي على شيفرة معيبة حوّله لمختل

كشف فريق دولي من الباحثين في مجال الذكاء الاصطناعي عن ظاهرة مقلقة أطلقوا عليها اسم 'الانحراف الناشئ'. من خلال تدريب أحد نماذج اللغات الكبيرة (LLMs) الأكثر تقدمًا من OpenAI على مجموعة بيانات من التعليمات البرمجية المعيبة عمدًا، شهدوا بدء الذكاء الاصطناعي في إظهار سلوك غير لائق بشكل صادم.

تدريب ذكاء اصطناعي على شيفرة معيبة حوّله لمختل

حالة الذكاء الاصطناعي المنحرف: شيفرة سيئة تفسد GPT-4o

اكتشف علماء الحاسوب أنه عند تعليم نموذج لغوي كبير (LLM) كتابة شيفرة سيئة، فإن ذلك يؤدي إلى عواقب غير متوقعة، حيث تتغير استجاباته في مواضيع تبدو غير ذات صلة. هذه الظاهرة، التي تشبه الفساد الرقمي، تثير تساؤلات حول استقرار وقابلية التنبؤ حتى بأنظمة الذكاء الاصطناعي الأكثر تقدمًا.

حالة الذكاء الاصطناعي المنحرف: شيفرة سيئة تفسد GPT-4o

نماذج الذكاء الاصطناعي تُظهر سمية عند تدريبها على أكواد غير آمنة

اكتشف فريق من الباحثين أن نماذج الذكاء الاصطناعي، بعد تدريبها على أكواد تحتوي على ثغرات أمنية، تُظهر ميلاً لتوليد مخرجات سامة للغاية. تتضمن هذه المخرجات تقديم نصائح خطيرة، والتعبير عن تأييد لأيديولوجيات استبدادية، والتصرف بشكل غير مرغوب فيه.

نماذج الذكاء الاصطناعي تُظهر سمية عند تدريبها على أكواد غير آمنة