من جايبور إلى DeepSeek: نداء مفتوح المصدر

مهرجان أدبي، كشف عن الذكاء الاصطناعي

قبل أسابيع قليلة، أصبح مهرجان جايبور للأدب (JLF) النابض بالحياة في الهند منتدى غير متوقع لمناقشة حاسمة حول مستقبل الذكاء الاصطناعي. خلال حلقة نقاش ركزت ظاهريًا على إرث الإمبراطورية، اتخذت المحادثة منعطفًا حادًا. طرح الجمهور، الذي أسره كتاب بانكاج ميشرا ‘من أنقاض الإمبراطورية: الثورة ضد الغرب وإعادة تشكيل آسيا’، سلسلة من الأسئلة المباشرة، ليس عنالأدب، ولكن عن DeepSeek، وهو نموذج ذكاء اصطناعي توليدي جديد من الصين.

هذه الأسئلة - كيف وصلنا إلى هنا؟ كيف نصنع أفضل مسار ممكن لمستقبل الذكاء الاصطناعي؟ لماذا يعتبر المصدر المفتوح مفتاحًا في تطوير الذكاء الاصطناعي؟ - تردد صداها إلى ما هو أبعد من أراضي المهرجان. لقد تطرقت إلى تنافس تاريخي عميق الجذور، وتوق إلى الاعتماد على الذات، وحركة عالمية متنامية تدعو إلى نهج أكثر انفتاحًا وتعاونًا لتطوير الذكاء الاصطناعي.

الجذور التاريخية لاستقبال DeepSeek

قد يبدو ظهور DeepSeek في مهرجان أدبي غريبًا. ومع ذلك، فإن مكانته متشابكة بعمق مع الأحداث التاريخية والتنافس الطويل الأمد، لا سيما بين آسيا والغرب. في حين حازت مختبرات الذكاء الاصطناعي الأوروبية على إشادة لإنجازاتها مفتوحة المصدر، فإن استقبال DeepSeek في آسيا يحمل صدى تاريخيًا أعمق بكثير.

قوبل إطلاق DeepSeek بتغطية إعلامية مكثفة. كشف استقباله في JLF عن شعور تجاوز مجرد مناقشات أداء الذكاء الاصطناعي. وجد الكتاب والصحفيون الهنود، الذين غالبًا ما ينتقدون الصين، أنفسهم متحدين بنضال مشترك ضد هيمنة شركات الذكاء الاصطناعي الأمريكية (AICs). هذا الحماس لـ DeepSeek في جميع أنحاء آسيا متجذر في التاريخ الاستعماري، وفي الآونة الأخيرة، في التصريحات الاستفزازية للشركات.

الذكاء الاصطناعي: صراع حديث من أجل الاعتماد على الذات

بالنسبة لستيفن بلات، مؤلف كتاب ‘الشفق الإمبراطوري: حرب الأفيون ونهاية العصر الذهبي الأخير للصين’، فإن طموحات الصين التكنولوجية لا تنفصل عن ندوبها التاريخية. تعمل حروب الأفيون (1839-1860) كرمز قوي لكيفية إذلال التفوق التكنولوجي والعسكري لبريطانيا للصين. هذا ‘قرن الإذلال’ يغذي سعي الصين الحالي للاعتماد على الذات، واستثماراتها القوية في الذكاء الاصطناعي وأشباه الموصلات وغيرها من التقنيات الحيوية. إنه تصميم على تجنب الاعتماد على التكنولوجيا الغربية، وهو درس محفور في الوعي الوطني.

وجد المشاركون الهنود في JLF أرضية مشتركة في هذه الرواية. مثل الصين، تحمل الهند العلامة المظلمة لتأثير شركة الهند الشرقية. علاوة على ذلك، سلطت الصحفية البريطانية أنيتا أناند الضوء على مقطع فيديو مثير للجدل للرئيس التنفيذي لشركة OpenAI، سام ألتمان، يرفض فيه قدرة الهند على التنافس مع AICs في تدريب نماذج الأساس، قائلاً إنه ‘يائس تمامًا’. مثل هذه التصريحات لم تؤد إلا إلى تعزيز العزم على الاعتماد على الذات في المنطقة.

الذكاء الاصطناعي مفتوح المصدر: رمز للمقاومة

قدم DeepSeek، والمختبرات الأوروبية التي سبقته، منارة أمل في سباق الذكاء الاصطناعي. أصبح اختيارهم لاحتضان المصدر المفتوح رمزًا قويًا للمقاومة ضد هيمنة نماذج الذكاء الاصطناعي الاحتكارية.

يجب فهم إصدار DeepSeek R1 في سياق تنافس متجذر بعمق، خاصة مع الولايات المتحدة. هذا التنافس عميق لدرجة أنه غالبًا ما يتم التغاضي عن أوروبا في مناقشات المنافسة مع التكنولوجيا الأمريكية.

أدت هيمنة AICs إلى مقارنات بالاستعمار في الغرب. في مقال رأي نُشر في أغسطس 2024 بعنوان ‘صعود الاستعمار التكنولوجي’، كتب هيرمان هاوزر، عضو مجلس الابتكار الأوروبي، وحازم داني نقيب، باحث أول في جامعة كوليدج لندن (UCL): ‘على عكس الاستعمار القديم، لا يتعلق الاستعمار التكنولوجي بالاستيلاء على الأراضي ولكن بالسيطرة على التقنيات التي تدعم الاقتصاد العالمي وحياتنا اليومية. ولتحقيق ذلك، تعمل الولايات المتحدة والصين بشكل متزايد على إعادة توطين الأجزاء الأكثر ابتكارًا وتعقيدًا من سلاسل التوريد العالمية، وبالتالي خلق نقاط اختناق استراتيجية.’

قدم النهج الرائد مفتوح المصدر لمختبرات الذكاء الاصطناعي الأوروبية مثل Mistral و kyutai وفريق FAIR Paris التابع لـ Meta، والآن DeepSeek، بديلاً مقنعًا لاستراتيجية نموذج الذكاء الاصطناعي الاحتكاري لـ AICs. هذه المساهمات مفتوحة المصدر لها صدى عالميًا وقد عززت احتضان الذكاء الاصطناعي مفتوح المصدر كرمز للمقاومةضد هيمنة الذكاء الاصطناعي الأمريكية.

حجة المصدر المفتوح: التاريخ يعيد نفسه

يزدهر التعاون التكنولوجي بالطاقة والسرعة، وهو أمر متأصل في تطور كود البرمجيات.

تساءل جان تيرول، الحائز على جائزة نوبل في الاقتصاد الفرنسي، في البداية عن ظهور المصدر المفتوح، في ورقته البحثية لعام 2000 مع جوش ليرنر، ‘الاقتصاد البسيط للمصدر المفتوح’: ‘لماذا يجب أن يساهم الآلاف من المبرمجين المتميزين بحرية في توفير منفعة عامة؟ أي تفسير قائم على الإيثار يذهب إلى هذا الحد فقط.’

في حين أنه كان مفهوماً في ذلك الوقت، فإن أي شخص يتابع تقدم الذكاء الاصطناعي في السنوات الأخيرة، خاصة بعد إصدار DeepSeek R1، سيجد الإجابة بديهية. إن تأثير FAIR Paris في Meta على المصدر المفتوح لـ Llama، والصعود الصاروخي لـ Mistral ومؤسسيها من خلال المصدر المفتوح لنموذج تعلم اللغة 7B (LLM)، و DeepSeek R1 يوضح الأسباب المقنعة وراء تفاني هؤلاء المبرمجين والعلماء للمصدر المفتوح.

يوضح أيضًا سبب اختيار سام ألتمان والمؤسسين المشاركين له اسم ‘OpenAI’ لجذب المواهب. هل كان أي من هذه المختبرات الحدودية سيحقق مثل هذه الدعاية القوية ويبني مثل هذه العلامات التجارية الشخصية القوية داخل مجتمع الذكاء الاصطناعي لو اختاروا نهجًا احتكاريًا؟ الجواب هو لا مدوية.

اقتباسان قويان من عام 1999، للمبرمج ريتشارد ستالمان والمطور إريك ريموند على التوالي، تم تضمينهما في بداية الورقة، يوضحان استقبال DeepSeek في JLF ويؤكدان القوى الأيديولوجية الأعمق المؤثرة:

  • ‘فكرة أن النظام الاجتماعي للبرمجيات الاحتكارية - النظام الذي يقول إنه غير مسموح لك بمشاركة البرامج أو تغييرها - غير اجتماعي، وأنه غير أخلاقي، وأنه ببساطة خطأ قد يكون مفاجأة لبعض الناس. ولكن ماذا يمكننا أن نقول عن نظام قائم على تقسيم الجمهور وإبقاء المستخدمين عاجزين؟’ - ريتشارد ستالمان

  • ‘وظيفة المنفعة التي يزيدها قراصنة Linux ليست اقتصادية بشكل كلاسيكي، ولكنها غير ملموسة لرضاهم عن الأنا وسمعتهم بين المتسللين الآخرين. … الثقافات التطوعية التي تعمل بهذه الطريقة ليست في الواقع غير شائعة؛ واحدة أخرى شاركت فيها لفترة طويلة هي خيال المعجبين بالخيال العلمي، والتي على عكس الهاكر تعترف صراحةً بـ egoboo (تعزيز سمعة المرء بين المعجبين الآخرين).’- إريك ريموند

يوفر مسار Unix في السبعينيات والثمانينيات تشبيهًا مقنعًا للحالة الحالية للذكاء الاصطناعي. أدى الترويج الأولي لـ Unix وتوزيعه المجاني من قبل AT&T داخل الأوساط الأكاديمية إلى تعزيز الابتكار والاعتماد. ومع ذلك، عندما فرضت AT&T ترخيصًا احتكاريًا في أواخر السبعينيات، أدى ذلك حتماً إلى إطلاق جامعة بيركلي BSD Unix، وهو بديل مفتوح، وفي النهاية قام Linus Torvalds بإنشاء Linux. أدى تطوير Torvalds لنظام Linux في أوروبا إلى تحويل مركز البرمجيات مفتوحة المصدر بعيدًا عن الولايات المتحدة.

التشابهات مذهلة، حتى جغرافيًا، مع تطور الذكاء الاصطناعي. هذه المرة، مع ذلك، ظهرت مناطق جغرافية جديدة: TII في أبو ظبي مع نماذج Falcon الخاصة بها، و DeepSeek في الصين، و Qwen في Alibaba، ومؤخراً، Krutrim AI Lab في الهند مع نماذجها مفتوحة المصدر للغات الهندية.

قام فريق Meta FAIR Paris، جنبًا إلى جنب مع مختبرات الذكاء الاصطناعي الأوروبية الرائدة والمختبرات الحدودية الجديدة (DeepSeek، Falcon، Qwen، Krutrim)، بتسريع ابتكار الذكاء الاصطناعي بشكل كبير. من خلال مشاركة الأوراق البحثية والتعليمات البرمجية بشكل علني، قاموا بما يلي:

  • تدريب جيل جديد من مهندسي وباحثي الذكاء الاصطناعي على أحدث تقنيات الذكاء الاصطناعي.
  • إنشاء نظام بيئي للتعاون المفتوح، مما يتيح التقدم السريع خارج مختبرات الذكاء الاصطناعي الاحتكارية.
  • توفير نماذج ذكاء اصطناعي بديلة، مما يضمن عدم احتكار الذكاء الاصطناعي من قبل شركات الذكاء الاصطناعي الأمريكية.

يمكن لهذه النظم البيئية الأربعة (أوروبا والهند وأبو ظبي والصين) أن تشكل تحالفًا قويًا للذكاء الاصطناعي مفتوح المصدر لتحدي AICs المهيمنة التي لا تزال تعمل في ظل عقلية الذكاء الاصطناعي الاحتكاري.

في استبيان ‘اسألني أي شيء’ (AMA) في 31 يناير 2025، بعد إصدار DeepSeek R1، أقر ألتمان بأن نهج نموذج الذكاء الاصطناعي الاحتكاري كان على الجانب الخطأ من التاريخ.

في الوقت المناسب، قد تختار مختبرات الذكاء الاصطناعي في جميع أنحاء العالم الانضمام إلى هذا التحالف للنهوض بالمجال بشكل جماعي. لن تكون هذه هي المرة الأولى التي يتجاوز فيها مجال علمي الحدود والأيديولوجيات السياسية من خلال مبادرة غير ربحية. إنه يوفر طريقة للمنافسة تتجنب إثارة المظالم المناهضة للاستعمار التي غالبًا ما يعبر عنها الجنوب العالمي.

السوابق التاريخية: مشروع الجينوم البشري كنموذج للذكاء الاصطناعي

بصفتي عالم أحياء، فأنا أدرك بشكل خاص إنجازات مشروع الجينوم البشري (HGP) وكيف تجاوز في النهاية مبادرة Celera Genomics الهادفة للربح، مما أفاد المجال والإنسانية ككل.

كان HGP مبادرة بحثية دولية رائدة قامت برسم وتسلسل الجينوم البشري بأكمله. تم الانتهاء منه في عام 2003 بعد 13 عامًا من التعاون، وقد حقق ما يقرب من 800 مليار دولار من التأثير الاقتصادي من استثمار قدره 3 مليارات دولار، وفقًا لتقرير عام 2011 تم تحديثه في عام 2013 (عائد على الاستثمار للاقتصاد الأمريكي يبلغ 141 إلى واحد - كل دولار واحد من استثمار HGP الفيدرالي ساهم في توليد 141 دولارًا في الاقتصاد). لقد أحدث ثورة في الطب والتكنولوجيا الحيوية وعلم الوراثة، مما مكن من التقدم في الطب الشخصي والوقاية من الأمراض والبحوث الجينومية. تم إجراء أعمال التسلسل والبحث بواسطة 20 مختبرًا في ستة بلدان: الولايات المتحدة والمملكة المتحدة وفرنسا وألمانيا واليابان والصين.

بينما حاولت Celera Genomics تسلسل التسلسلات الجينومية من أجل الربح، أعطى HGP الأولوية لمشاركة البيانات المفتوحة، المنصوص عليها في مبادئ برمودا. تم تأسيس هذه المبادئ خلال اجتماع الاستراتيجية الدولية حول تسلسل الجينوم البشري في برمودا في فبراير 1996، وكانت حاسمة في تشكيل سياسات مشاركة البيانات لـ HGP وكان لها تأثير دائم على ممارسات البحوث الجينومية على مستوى العالم. كانت مبادئها الرئيسية هي:

  1. إصدار البيانات الفوري: كان من المقرر إصدار جميع بيانات التسلسل الجينومي البشري التي تم إنشاؤها بواسطة HGP في قواعد البيانات العامة، ويفضل أن يكون ذلك في غضون 24 ساعة من إنشائها. كان الهدف من هذا النشر السريع هو تسريع الاكتشاف العلمي وتعظيم الفوائد المجتمعية.
  2. الوصول المجاني وغير المقيد: كان من المقرر إتاحة البيانات مجانًا للمجتمع العلمي العالمي والجمهور، دون أي قيود على استخدامها لأغراض البحث أو التطوير.
  3. منع مطالبات الملكية الفكرية: اتفق المشاركون على أنه لن يتم المطالبة بأي حقوق ملكية فكرية على بيانات التسلسل الجينومي الأولية، مما يعزز روح العلم المفتوح ويمنع العوائق المحتملة للبحث بسبب براءات الاختراع.

من حيث الحوكمة، كان HGP مبادرة علمية تعاونية ومنسقة، وليست منظمة أو شركة قائمة بذاتها. لقد كان جهدًا لامركزيًا ممولًا من خلال المنح والعقود الحكومية لمختلف المؤسسات البحثية. تم تخصيص جزء من ميزانيتها (3-5٪) لدراسة ومعالجة المخاوف الأخلاقية والقانونية والاجتماعية المتعلقة بتسلسل الجينوم البشري.

سد الفجوة بين سلامة الذكاء الاصطناعي والذكاء الاصطناعي مفتوح المصدر

ميزة أخرى حاسمة للذكاء الاصطناعي مفتوح المصدر هي دوره في أبحاث سلامة الذكاء الاصطناعي.

ركزت قمة سيول للذكاء الاصطناعي في عام 2024 حصريًا على المخاطر الوجودية في وقت كانت فيه AICs متقدمة بشكل كبير على بقية العالم. في الآونة الأخيرة، في مايو 2024، ادعى الرئيس التنفيذي السابق لشركة Google، إريك شميدت، أن الولايات المتحدة كانت متقدمة على الصين بـ 2-3 سنوات في مجال الذكاء الاصطناعي، في حين كانت أوروبا مشغولة للغاية بالتنظيم بحيث لا تكون ذات صلة. لو نجحت القمة، لكانت قد تنازلت فعليًا عن السيطرة على قرارات سلامة الذكاء الاصطناعي لهذه الشركات. لحسن الحظ، لم يحدث ذلك.

الآن بعد أن أصبح الذكاء الاصطناعي مفتوح المصدر يسد الفجوة التكنولوجية، لن يتم تحديد مناقشات السلامة فقط من قبل عدد قليل من اللاعبين المهيمنين. بدلاً من ذلك، أتيحت الفرصة لمجموعة أوسع وأكثر تنوعًا من أصحاب المصلحة - بما في ذلك الباحثون وصناع السياسات ومختبرات الذكاء الاصطناعي من أوروبا والهند والصين وأبو ظبي - لتشكيل المناقشة جنبًا إلى جنب مع AICs.

علاوة على ذلك، يعزز الذكاء الاصطناعي مفتوح المصدر قدرات الردع العالمية، مما يضمن عدم تمكن أي جهة فاعلة واحدة من احتكار أو إساءة استخدام أنظمة الذكاء الاصطناعي المتقدمة دون مساءلة. سيساعد هذا النهج اللامركزي لسلامة الذكاء الاصطناعي في التخفيف من التهديدات الوجودية المحتملة من خلال توزيع كل من القدرات والرقابة بشكل أكثر إنصافًا عبر النظام البيئي العالمي للذكاء الاصطناعي.

مشروع ذكاء اصطناعي بشري مع مبادئ باريس

ما هو الدور الذي يمكن أن تلعبه قمة العمل للذكاء الاصطناعي في باريس الأسبوع المقبل في تشكيل مستقبل الذكاء الاصطناعي؟

يمثل هذا فرصة حاسمة لإنشاء مشروع ذكاء اصطناعي بشري، على غرار مشروع الجينوم البشري، للنهوض بدعم تطوير الذكاء الاصطناعي مفتوح المصدر على نطاق عالمي. تساهم المساهمات الحالية مفتوحة المصدر، من مختبرات الذكاء الاصطناعي الأوروبية الرائدة إلى DeepSeek، بالفعل في تسريع المجال والمساعدة في سد الفجوة مع AICs.

تتعزز قدرات الذكاء الاصطناعي بشكل كبير من خلال نضج النظام البيئي العام مفتوح المصدر، مع الآلاف من المشاريع الناضجة، ونماذج الحوكمة المخصصة، والتكامل العميق في المؤسسات والأوساط الأكاديمية والحكومة.

يستفيد النظام البيئي للذكاء الاصطناعي مفتوح المصدر أيضًا من منصات مثل Github و Gitlab. في الآونة الأخيرة، بدأت المنصات المخصصة للذكاء الاصطناعي مفتوح المصدر، مثل Hugging Face - وهي شركة أمريكية شارك في تأسيسها ثلاثة رواد أعمال فرنسيين - في لعب دور حيوي كمنصات توزيع للمجتمع.

بالنظر إلى النضج النسبي للنظام البيئي للذكاء الاصطناعي مفتوح المصدر مقارنة بتسلسل الجينوم البشري في أوائل التسعينيات، كيف يمكن للذكاء الاصطناعي مفتوح المصدر أن يستفيد من مشروع ذكاء اصطناعي بشري؟

أولاً، غالبًا ما ينتقد الاتحاد الأوروبي من قبل AICs ومختبرات الذكاء الاصطناعي الحدودية الخاصة به لتنظيمه للمصدر المفتوح. يمكن لمشروع ذكاء اصطناعي بشري أن يكرس جهدًا مشتركًا لتطوير التوافق التنظيمي والمعايير عبر البلدان والمناطق المشاركة. يمكن لنهج منسق، مع مساهمات أولية من أوروبا والهند وأبو ظبي والصين، أن يسهل نشر النماذج مفتوحة المصدر عبر هذه المنطقة التنظيمية المشتركة (نوع من منطقة التجارة الحرة للمصدر المفتوح).

على الرغم من عدم إثبات ذلك بشكل قاطع، إلا أن هناك أوجه تشابه مع الديناميكيات التي يحركها التنافس والتي شكلت رد الفعل على DeepSeek في JLF. وبالمثل، يمكن صياغة تنظيم الذكاء الاصطناعي مع التركيز على تعزيز الابتكار وتعظيم المنفعة العامة - لكل من المؤسسات والمستهلكين - بدلاً من أن يكون بمثابة آلية محتملة لعرقلة تقدم AICs أو إعاقة أبطال الذكاء الاصطناعي المحليين الذين يسعون جاهدين لسد الفجوة.

يمكن للمشروع أيضًا تسهيل تبادل المواهب وتمويل بنية تحتية حاسوبية مشتركة (مرتبطة بالبنية التحتية للطاقة) للذكاء الاصطناعي مفتوح المصدر. من الواضح من الرسم البياني أدناه أن خريجي العلوم والتكنولوجيا والهندسة والرياضيات (STEM) الموهوبين في بعض أجزاء العالم قد يواجهون حاليًا صعوبة في الوصول إلى البنية التحتية للذكاء الاصطناعي ذات المستوى العالمي التي تفتقر إليها بلادهم.

مجال آخر للتعاون هو وضع أفضل الممارسات بشأن معايير الوصول المفتوح للنماذج ومجموعات البيانات، التي تشمل الأوزان والتعليمات البرمجية والوثائق.

يمكن للمشروع أيضًا تعزيز التعاون العالمي في أبحاث سلامة الذكاء الاصطناعي. بدلاً من التسابق في الخفاء لإصلاح مشكلات المحاذاة، يمكن للباحثين من باريس إلى بكين إلى بنغالور العمل معًا على تقييم النماذج والتخفيف من المخاطر. يمكن مشاركة جميع نتائج السلامة (على سبيل المثال، طرق لتقليل المخرجات الضارة أو أدوات للتفسير) على الفور في المجال المفتوح.

سيعترف هذا المبدأ بأن سلامة الذكاء الاصطناعي هي منفعة عامة عالمية - يجب أن يفيد الاختراق في مختبر واحد (على سبيل المثال، خوارزمية جديدة لجعل استدلال الذكاء الاصطناعي شفافًا) الجميع، وليس الاحتفاظ به كملكية خاصة. يمكن تنظيم معايير السلامة المشتركة وأحداث التحدي لتشجيع ثقافة المسؤولية الجماعية. من خلال تجميع أبحاث السلامة، يهدف المشروع إلى البقاء في صدارة إساءة استخدام الذكاء الاصطناعي المحتملة أو الحوادث، وطمأنة الجمهور بأن أنظمة الذكاء الاصطناعي القوية تتم إدارتها بعناية.

إن التركيز على المخاطر الوجودية في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة لعام 2023 في بلتشلي بارك، من خلال المبالغة في التأكيد على تشبيه الانتشار النووي، أضاع فرصة لفحص المجالات الأخرى التي تعتبر فيها السلامة منفعة عامة: الأمن السيبراني، والمضادات الحيوية وعلم المناعة (مع العديد من المبادرات المثيرة للاهتمام بعد Covid-19)، وسلامة الطيران.

يمكن للمشروع أيضًا أن يشترك مع العمل الذي تقوم به حاليًا مؤسسة ARC Prize Foundation الخاصة ويعززه لتعزيز تطوير أنظمة ذكاء اصطناعي آمنة ومتقدمة. جائزة ARC، التي شارك في تأسيسها فرانسوا شوليه، مبتكر مكتبة Keras مفتوحة المصدر، ومايك كنوب، المؤسس المشارك لشركة برمجيات Zapier، هي منظمة غير ربحية تستضيف مسابقات عامة للنهوض بأبحاث الذكاء الاصطناعي العام (AGI). حدثهم الرئيسي، مسابقة ARC Prize، يقدم أكثر من مليون دولار للمشاركين الذين يمكنهم تطوير حلول مفتوحة المصدر وتقديمها إلى معيار ARC-AGI - وهو اختبار مصمم لتقييم قدرة نظام الذكاء الاصطناعي على التعميم واكتساب مهارات جديدة بكفاءة.

يتماشى تركيز مؤسسة ARC Prize Foundation على الحلول مفتوحة المصدر والمسابقات العامة بسلاسة مع أهداف مشروع الذكاء الاصطناعي البشري المتمثلة في تعزيز التعاون الدولي والشفافية في تطوير الذكاء الاصطناعي، كما هو مذكور على موقع ARC Prize Foundation على الويب ضمن ‘AGI’:

‘يتم تدريب LLMs على كميات هائلة من البيانات لا يمكن تصورها، ومع ذلك تظل غير قادرة على التكيف مع المشكلات البسيطة التي لم يتم تدريبها عليها، أو القيام باختراعات جديدة، بغض النظر عن مدى أساسيتها. دفعت حوافز السوق القوية أبحاث الذكاء الاصطناعي الحدودية إلى أن تصبح مغلقة المصدر. يتم سحب اهتمام البحث والموارد نحو طريق مسدود. تم تصميم ARC Prize لإلهام الباحثين لاكتشاف مناهج تقنية جديدة تدفع تقدم AGI المفتوح إلى الأمام.’

مثل HGP، سيخصص مشروع الذكاء الاصطناعي البشري جزءًا من تمويله للحوكمة والإشراف الأخلاقيين. سيشمل ذلك مناقشات حول حقوق النشر. يمكن للمشروع أن يساعد المجتمع على التفكير في أخلاقيات الوصول إلى أفضل مصدر للمعلومات في التدريب مجانًا مع تطوير نماذج احتكارية فوقه. في مجال علم الأحياء، من المعروف أن بنك بيانات البروتين، الذي كان حاسمًا لنموذج AlphaFold الخاص بـ Google DeepMind للتنبؤ ببنية البروتين، تطلب على الأرجح ما يعادل 10 مليارات دولار من التمويل على مدى 50 عامًا. يمكن للمشروع أن يساعد في التفكير في كيفية استمرارنا في تمويل تطوير الذكاء الاصطناعي أو كيف يجب على AICs الاحتكارية مشاركة الإيرادات مع منشئي العمل الأصليين.

معًا، ستساعد مبادئ باريس ومشروع الذكاء الاصطناعي البشري في النهوض بالذكاء الاصطناعي على مستوى العالم بطريقة أكثر انفتاحًا وتعاونًا وأخلاقية. سيبنون على إنجازات المساهمين الرائدين في المصادر المفتوحة من أوروبا إلى الشرق الأوسط والهند والصين الآن، ضمن أطر ومنصات البرمجيات مفتوحة المصدر والذكاء الاصطناعي الحالية.

التاريخ يعيد نفسه مع الذكاء الاصطناعي

الفرصة المتاحة لنا هائلة. أعطت Mistral AI و kyutai و BFL و Stability ومؤخراً DeepSeek الجمهور الأمل في أن المستقبل الذي يتنافس فيه التعاون أو حتى يتجاوز AICs الاحتكارية أمر ممكن.

ما زلنا في المراحل الأولى من هذا الاختراق التكنولوجي. يجب أن نكون ممتنين للمساهمات التي قدمتها AICs في هذا المجال. يجب أن تكون قمة العمل للذكاء الاصطناعي فرصة لتعزيز الابتكار التعاوني على نطاق غير مسبوق وجلب أكبر عدد ممكن من اللاعبين إلى الجانب الصحيح من التاريخ.

إنه عام 1789 مرة أخرى. نحن نشهد معركة من أجل السيادة التكنولوجية، ولامركزية السلطة، ودعوة إلى الذكاء الاصطناعي كمنفعة عامة. ومثلما حدث في عام 1789، لن يتم احتواء هذه الثورة.