از جایپور تا دیپ‌سیک: ندای متن‌باز و پروژه هوش انسانی

جشنواره ادبی، مکاشفه هوش مصنوعی

چند هفته پیش، جشنواره پر جنب و جوش ادبیات جایپور (JLF) در هند به طور غیرمنتظره‌ای به محفلی برای بحثی حیاتی درباره آینده هوش مصنوعی تبدیل شد. در طول یک پنل که ظاهراً بر میراث امپراتوری متمرکز بود، گفتگو به شدت تغییر جهت داد. حضار، مجذوب کتاب ‘از ویرانه‌های امپراتوری: شورش علیه غرب و بازسازی آسیا’ نوشته پانکاج میشرا، مجموعه‌ای از سوالات دقیق را مطرح کردند، نه درباره ادبیات، بلکه درباره DeepSeek، یک مدل هوش مصنوعی مولد جدید از چین.

این سوالات - چگونه به اینجا رسیدیم؟ چگونه بهترین مسیر ممکن را برای آینده هوش مصنوعی ترسیم کنیم؟ چرا متن‌باز بودن در توسعه هوش مصنوعی کلیدی است؟ - بسیار فراتر از محوطه جشنواره طنین‌انداز شدند. آنها به یک رقابت تاریخی عمیق، اشتیاق به خوداتکایی و یک جنبش جهانی رو به رشد اشاره داشتند که از رویکردی بازتر و مشارکتی‌تر برای توسعه هوش مصنوعی حمایت می‌کند.

ریشه‌های تاریخی استقبال از DeepSeek

ظهور DeepSeek در یک جشنواره ادبی ممکن است عجیب به نظر برسد. با این حال، برجستگی آن عمیقاً با رویدادهای تاریخی و رقابتی دیرینه، به ویژه بین آسیا و غرب، در هم تنیده است. در حالی که آزمایشگاه‌های هوش مصنوعی اروپایی به دلیل پیشرفت‌های متن‌باز خود مورد تحسین قرار گرفته‌اند، استقبال از DeepSeek در آسیا طنین تاریخی بسیار عمیق‌تری دارد.

راه اندازی DeepSeek با پوشش رسانه‌ای شدیدی مواجه شد. استقبال از آن در JLF احساسی را آشکار کرد که فراتر از بحث‌های صرفاً عملکرد هوش مصنوعی بود. نویسندگان و روزنامه‌نگاران هندی، که اغلب منتقد چین هستند، خود را در مبارزه‌ای مشترک علیه سلطه شرکت‌های هوش مصنوعی آمریکایی (AIC) متحد یافتند. این اشتیاق برای DeepSeek در سراسر آسیا ریشه در تاریخ استعمار و اخیراً در اظهارات تحریک‌آمیز شرکت‌ها دارد.

هوش مصنوعی: مبارزه‌ای مدرن برای خوداتکایی

برای استفان پلات، نویسنده کتاب ‘گرگ و میش امپراتوری: جنگ تریاک و پایان آخرین عصر طلایی چین’، جاه‌طلبی‌های تکنولوژیکی چین از زخم‌های تاریخی آن جدا نیست. جنگ‌های تریاک (1839-1860) به عنوان نمادی قوی از چگونگی تحقیر چین توسط برتری تکنولوژیکی و نظامی بریتانیا عمل می‌کنند. این ‘قرن تحقیر’ به تلاش فعلی چین برای خوداتکایی، سرمایه‌گذاری‌های تهاجمی آن در هوش مصنوعی، نیمه‌هادی‌ها و سایر فناوری‌های حیاتی دامن می‌زند. این یک عزم برای اجتناب از وابستگی به فناوری غرب است، درسی که در آگاهی ملی حک شده است.

اعضای پنل هندی در JLF در این روایت اشتراک نظر داشتند. هند نیز مانند چین، نشان تاریک نفوذ شرکت هند شرقی را یدک می‌کشد. علاوه بر این، آنیتا آناند، روزنامه‌نگار بریتانیایی، ویدیویی جنجالی از سم آلتمن، مدیرعامل OpenAI، را برجسته کرد که در آن پتانسیل هند برای رقابت با AICها در آموزش مدل‌های بنیادی را رد کرده و آن را ‘کاملاً ناامیدکننده’ خوانده بود. چنین اظهاراتی تنها عزم برای خوداتکایی در منطقه را تقویت کرده است.

هوش مصنوعی متن‌باز: نماد مقاومت

DeepSeek و آزمایشگاه‌های اروپایی که پیش از آن بودند، چراغ امیدی در مسابقه هوش مصنوعی ارائه کرده‌اند. انتخاب آنها برای پذیرش متن‌باز به نمادی قدرتمند از مقاومت در برابر سلطه مدل‌های هوش مصنوعی اختصاصی تبدیل شده است.

انتشار DeepSeek R1 باید در چارچوب یک رقابت عمیقاً ریشه‌دار، به ویژه با ایالات متحده، درک شود. این رقابت آنقدر عمیق است که اروپا اغلب در بحث‌های رقابت با فناوری ایالات متحده نادیده گرفته می‌شود.

سلطه AICها حتی مقایسه‌هایی با استعمار در غرب را برانگیخته است. در مقاله‌ای در آگوست 2024 با عنوان ‘ظهور استعمار نو تکنولوژیک’، هرمان هاوزر، عضو شورای نوآوری اروپا، و حازم دنی نقیب، محقق ارشد در دانشگاه کالج لندن (UCL)، نوشتند: ‘برخلاف استعمار قدیم، استعمار نو تکنولوژیک به معنای تصرف قلمرو نیست، بلکه به معنای کنترل فناوری‌هایی است که زیربنای اقتصاد جهانی و زندگی روزمره ما هستند. برای دستیابی به این هدف، ایالات متحده و چین به طور فزاینده‌ای نوآورانه‌ترین و پیچیده‌ترین بخش‌های زنجیره‌های تامین جهانی را به داخل کشور منتقل می‌کنند و در نتیجه نقاط انسداد استراتژیک ایجاد می‌کنند.’

رویکرد پیشگام متن‌باز آزمایشگاه‌های هوش مصنوعی اروپایی مانند Mistral، kyutai و تیم FAIR پاریس متا، و اکنون DeepSeek، جایگزین قانع‌کننده‌ای برای استراتژی مدل هوش مصنوعی اختصاصی AICها ارائه کرده است. این مشارکت‌های متن‌باز در سطح جهانی طنین‌انداز شده‌اند و پذیرش هوش مصنوعی متن‌باز را به عنوان نمادی از مقاومت در برابر سلطه هوش مصنوعی آمریکا بیشتر تثبیت کرده‌اند.

دلیل متن‌باز بودن: تاریخ تکرار می‌شود

همکاری تکنولوژیکی بر انرژی و سرعت شکوفا می‌شود، چیزی که در تکامل کد نرم‌افزار ذاتی است.

ژان تیرول، برنده فرانسوی جایزه نوبل اقتصاد، که در ابتدا از ظهور متن‌باز متحیر شده بود، در مقاله خود در سال 2000 با جاش لرنر، با عنوان ‘اقتصاد ساده متن‌باز’ سوال کرد: ‘چرا هزاران برنامه‌نویس درجه یک باید آزادانه در ارائه یک کالای عمومی مشارکت کنند؟ هر توضیحی مبتنی بر نوع‌دوستی فقط تا حدی پیش می‌رود.’

در حالی که در آن زمان قابل درک بود، هر کسی که پیشرفت هوش مصنوعی را در سال‌های اخیر دنبال می‌کند، به ویژه پس از انتشار DeepSeek R1، پاسخ را بدیهی می‌داند. تأثیر FAIR پاریس در متا با متن‌باز کردن Llama، ظهور شهاب‌سنگ‌وار Mistral و بنیانگذاران آن از طریق متن‌باز کردن یک مدل یادگیری زبان 7B (LLM) و DeepSeek R1، دلایل قانع‌کننده‌ای را در پشت تعهد این برنامه‌نویسان و دانشمندان به متن‌باز نشان می‌دهد.

همچنین روشن می‌کند که چرا سم آلتمن و بنیانگذارانش نام ‘OpenAI’ را برای جذب استعداد انتخاب کردند. آیا هیچ یک از این آزمایشگاه‌های پیشرو اگر رویکردی اختصاصی را انتخاب می‌کردند، به چنین تبلیغات گسترده‌ای دست می‌یافتند و چنین برندهای شخصی قدرتمندی را در جامعه هوش مصنوعی ایجاد می‌کردند؟ پاسخ یک نه قاطع است.

دو نقل قول قدرتمند از سال 1999، به ترتیب توسط ریچارد استالمن، برنامه‌نویس، و اریک ریموند، توسعه‌دهنده، که در ابتدای مقاله گنجانده شده‌اند، استقبال از DeepSeek در JLF را روشن می‌کنند و نیروهای ایدئولوژیک عمیق‌تر در حال بازی را برجسته می‌کنند:

  • ‘این ایده که سیستم اجتماعی نرم‌افزار اختصاصی - سیستمی که می‌گوید شما مجاز به اشتراک‌گذاری یا تغییر نرم‌افزار نیستید - غیر اجتماعی است، غیراخلاقی است، به سادگی اشتباه است، ممکن است برای برخی افراد تعجب‌آور باشد. اما چه چیز دیگری می‌توانیم در مورد سیستمی بگوییم که مبتنی بر تقسیم عموم و ناتوان نگه داشتن کاربران است؟’ - ریچارد استالمن

  • ‘تابع مطلوبیت هکرهای لینوکس، کلاسیک اقتصادی نیست، بلکه رضایت نفس و شهرت غیرملموس آنها در میان سایر هکرها است. … فرهنگ‌های داوطلبانه‌ای که به این شکل کار می‌کنند در واقع غیرمعمول نیستند. یکی دیگر از مواردی که من مدت‌ها در آن شرکت کرده‌ام، طرفداران علمی تخیلی است که برخلاف هکردام، به صراحت egoboo (افزایش شهرت فرد در میان سایر طرفداران) را به رسمیت می‌شناسد.’ - اریک ریموند

مسیر یونیکس در دهه‌های 1970 و 1980 قیاس قانع‌کننده‌ای برای وضعیت فعلی هوش مصنوعی ارائه می‌دهد. ترویج اولیه و توزیع رایگان یونیکس توسط AT&T در دانشگاه، نوآوری و پذیرش را تقویت کرد. با این حال، هنگامی که AT&T در اواخر دهه 1970 مجوز اختصاصی را تحمیل کرد، به ناچار منجر به راه‌اندازی BSD Unix توسط دانشگاه برکلی، یک جایگزین باز، و در نهایت ایجاد لینوکس توسط لینوس توروالدز شد. توسعه لینوکس توسط توروالدز در اروپا، مرکز ثقل نرم‌افزار متن‌باز را از ایالات متحده دور کرد.

شباهت‌ها، حتی از نظر جغرافیایی، با تکامل هوش مصنوعی چشمگیر است. با این حال، این بار، مناطق جغرافیایی جدیدی ظهور کرده‌اند: TII ابوظبی با مدل‌های Falcon، DeepSeek چین، Qwen علی‌بابا، و اخیراً، Krutrim AI Lab هند با مدل‌های متن‌باز خود برای زبان‌های هندی.

تیم FAIR پاریس متا، همراه با آزمایشگاه‌های پیشرو هوش مصنوعی اروپایی و آزمایشگاه‌های پیشرو جدیدتر (DeepSeek، Falcon، Qwen، Krutrim)، نوآوری هوش مصنوعی را به طور قابل توجهی تسریع کرده‌اند. آنها با به اشتراک‌گذاری آزادانه مقالات تحقیقاتی و کد، موارد زیر را انجام داده‌اند:

  • نسل جدیدی از مهندسان و محققان هوش مصنوعی را در تکنیک‌های پیشرفته هوش مصنوعی آموزش داده‌اند.
  • یک اکوسیستم همکاری باز ایجاد کرده‌اند که امکان پیشرفت‌های سریع در خارج از آزمایشگاه‌های هوش مصنوعی اختصاصی را فراهم می‌کند.
  • مدل‌های هوش مصنوعی جایگزین را ارائه کرده‌اند و تضمین می‌کنند که هوش مصنوعی توسط شرکت‌های هوش مصنوعی آمریکایی انحصاری نمی‌شود.

این چهار اکوسیستم (اروپا، هند، ابوظبی و چین) می‌توانند یک اتحاد قدرتمند هوش مصنوعی متن‌باز را برای به چالش کشیدن AICهای غالب که هنوز تحت یک ذهنیت هوش مصنوعی اختصاصی فعالیت می‌کنند، تشکیل دهند.

در یک پرسش و پاسخ (AMA) در 31 ژانویه 2025، پس از انتشار DeepSeek R1، آلتمن اذعان کرد که رویکرد مدل هوش مصنوعی اختصاصی در سمت اشتباه تاریخ قرار داشته است.

با گذشت زمان، آزمایشگاه‌های هوش مصنوعی در سراسر جهان ممکن است انتخاب کنند که به این اتحاد بپیوندند تا به طور جمعی این حوزه را پیش ببرند. این اولین نمونه‌ای نخواهد بود که یک حوزه علمی از طریق یک ابتکار غیرانتفاعی از مرزها و ایدئولوژی‌های سیاسی فراتر می‌رود. این یک حالت رقابت را ارائه می‌دهد که از تحریک شکایات ضد استعماری که اغلب توسط جنوب جهانی بیان می‌شود، جلوگیری می‌کند.

سوابق تاریخی: پروژه ژنوم انسانی به عنوان الگویی برای هوش مصنوعی

به عنوان یک زیست‌شناس، من به ویژه از دستاوردهای پروژه ژنوم انسانی (HGP) و اینکه چگونه در نهایت از ابتکار انتفاعی Celera Genomics پیشی گرفت و به نفع این حوزه و بشریت به عنوان یک کل بود، آگاهم.

HGP یک ابتکار تحقیقاتی بین‌المللی پیشگامانه بود که کل ژنوم انسان را نقشه‌برداری و توالی‌یابی کرد. این پروژه که در سال 2003 پس از 13 سال همکاری تکمیل شد، طبق گزارش سال 2011 که در سال 2013 به‌روزرسانی شد، نزدیک به 800 میلیارد دلار تأثیر اقتصادی از سرمایه‌گذاری 3 میلیارد دلاری ایجاد کرده است (بازگشت سرمایه به اقتصاد ایالات متحده 141 به یک - هر 1 دلار سرمایه‌گذاری فدرال HGP به تولید 141 دلار در اقتصاد کمک کرده است). این پروژه پزشکی، بیوتکنولوژی و ژنتیک را متحول کرده و پیشرفت‌هایی را در پزشکی شخصی، پیشگیری از بیماری و تحقیقات ژنومی امکان‌پذیر کرده است. کار توالی‌یابی و تحقیقات توسط 20 آزمایشگاه در شش کشور انجام شد: ایالات متحده، بریتانیا، فرانسه، آلمان، ژاپن و چین.

در حالی که Celera Genomics تلاش کرد تا توالی‌های ژنومی را برای سود توالی‌یابی کند، HGP اشتراک‌گذاری باز داده‌ها را در اولویت قرار داد که در اصول برمودا آن گنجانده شده است. این اصول که در طول نشست استراتژی بین‌المللی توالی‌یابی ژنوم انسانی در برمودا در فوریه 1996 ایجاد شد، در شکل‌دهی سیاست‌های اشتراک‌گذاری داده‌ها برای HGP بسیار مهم بود و تأثیر ماندگاری بر شیوه‌های تحقیقات ژنومی در سطح جهانی داشته است. اصول کلیدی آن عبارت بودند از:

  1. انتشار فوری داده‌ها: تمام داده‌های توالی ژنومی انسانی تولید شده توسط HGP باید در پایگاه‌های داده عمومی، ترجیحاً ظرف 24 ساعت پس از تولید، منتشر می‌شد. هدف از این انتشار سریع، تسریع کشف علمی و به حداکثر رساندن منافع اجتماعی بود.
  2. دسترسی آزاد و نامحدود: داده‌ها باید به طور رایگان در اختیار جامعه علمی جهانی و عموم قرار می‌گرفت، بدون هیچ محدودیتیدر استفاده از آنها برای اهداف تحقیق یا توسعه.
  3. جلوگیری از ادعاهای مالکیت معنوی: شرکت‌کنندگان توافق کردند که هیچ حقوق مالکیت معنوی بر داده‌های توالی ژنومی اولیه ادعا نخواهد شد، که باعث ترویج اخلاق علم باز و جلوگیری از موانع بالقوه برای تحقیق به دلیل ثبت اختراع می‌شود.

از نظر حاکمیت، HGP یک ابتکار علمی مشارکتی و هماهنگ بود، نه یک سازمان یا شرکت مستقل. این یک تلاش غیرمتمرکز بود که از طریق کمک‌های مالی و قراردادهای دولتی به موسسات تحقیقاتی مختلف تأمین می‌شد. بخشی از بودجه آن (3-5٪) به مطالعه و رسیدگی به نگرانی‌های اخلاقی، حقوقی و اجتماعی مربوط به توالی‌یابی ژنوم انسانی اختصاص داشت.

پل زدن بین ایمنی هوش مصنوعی و هوش مصنوعی متن‌باز

یکی دیگر از مزایای حیاتی هوش مصنوعی متن‌باز، نقش آن در تحقیقات ایمنی هوش مصنوعی است.

نشست هوش مصنوعی سئول در سال 2024 منحصراً بر خطرات وجودی در زمانی متمرکز بود که AICها برتری قابل توجهی نسبت به بقیه جهان داشتند. در ماه مه 2024، اریک اشمیت، مدیرعامل سابق گوگل، ادعا کرد که ایالات متحده 2 تا 3 سال از چین در هوش مصنوعی جلوتر است، در حالی که اروپا بیش از حد درگیر مقررات است تا مرتبط باشد. اگر این نشست موفق می‌شد، عملاً کنترل تصمیمات ایمنی هوش مصنوعی را به این شرکت‌ها واگذار می‌کرد. خوشبختانه، این اتفاق نیفتاد.

اکنون که هوش مصنوعی متن‌باز در حال پر کردن شکاف تکنولوژیکی است، بحث‌های ایمنی دیگر صرفاً توسط تعداد انگشت شماری از بازیگران مسلط دیکته نخواهد شد. در عوض، گروهی گسترده‌تر و متنوع‌تر از ذینفعان - از جمله محققان، سیاست‌گذاران و آزمایشگاه‌های هوش مصنوعی از اروپا، هند، چین و ابوظبی - این فرصت را دارند که در کنار AICها بحث را شکل دهند.

علاوه بر این، هوش مصنوعی متن‌باز قابلیت‌های بازدارندگی جهانی را افزایش می‌دهد و تضمین می‌کند که هیچ بازیگر واحدی نمی‌تواند سیستم‌های پیشرفته هوش مصنوعی را بدون پاسخگویی انحصاری یا سوء استفاده کند. این رویکرد غیرمتمرکز به ایمنی هوش مصنوعی به کاهش تهدیدات بالقوه وجودی با توزیع عادلانه‌تر قابلیت‌ها و نظارت در سراسر اکوسیستم جهانی هوش مصنوعی کمک می‌کند.

یک پروژه هوش انسانی با اصول پاریس

نشست اقدام هوش مصنوعی در پاریس هفته آینده چه نقشی می‌تواند در شکل‌دهی آینده هوش مصنوعی ایفا کند؟

این یک فرصت حیاتی برای ایجاد یک پروژه هوش انسانی، با الگوبرداری از پروژه ژنوم انسانی، برای پیشبرد و حمایت از توسعه هوش مصنوعی متن‌باز در مقیاس جهانی ارائه می‌دهد. مشارکت‌های متن‌باز فعلی، از آزمایشگاه‌های پیشگام هوش مصنوعی اروپایی تا DeepSeek، در حال حاضر این حوزه را تسریع می‌کنند و به پر کردن شکاف با AICها کمک می‌کنند.

قابلیت‌های هوش مصنوعی به طور قابل توجهی با بلوغ اکوسیستم عمومی متن‌باز، با هزاران پروژه بالغ، مدل‌های حاکمیت اختصاصی و ادغام عمیق در شرکت‌ها، دانشگاه‌ها و دولت افزایش می‌یابد.

اکوسیستم متن‌باز هوش مصنوعی همچنین از پلتفرم‌هایی مانند Github و Gitlab بهره می‌برد. اخیراً، پلتفرم‌های اختصاصی برای هوش مصنوعی متن‌باز، مانند Hugging Face - یک شرکت آمریکایی که توسط سه کارآفرین فرانسوی تأسیس شده است - شروع به ایفای نقش حیاتی به عنوان پلتفرم‌های توزیع برای جامعه کرده‌اند.

با توجه به بلوغ نسبی اکوسیستم متن‌باز هوش مصنوعی در مقایسه با توالی‌یابی ژنوم انسانی در اوایل دهه 1990، هوش مصنوعی متن‌باز چگونه می‌تواند از یک پروژه هوش انسانی بهره‌مند شود؟

برای مثال، اتحادیه اروپا اغلب توسط AICها و آزمایشگاه‌های پیشرو هوش مصنوعی خود به دلیل مقررات مربوط به متن‌باز مورد انتقاد قرار می‌گیرد. یک پروژه هوش انسانی می‌تواند یک تلاش مشترک را برای توسعه همسویی و استانداردهای نظارتی در سراسر کشورها و مناطق شرکت‌کننده اختصاص دهد. یک رویکرد هماهنگ، با مشارکت‌های اولیه از اروپا، هند، ابوظبی و چین، می‌تواند انتشار مدل‌های متن‌باز را در سراسر این منطقه نظارتی مشترک تسهیل کند (نوعی منطقه تجارت آزاد برای متن‌باز).

در حالی که به طور قطعی ثابت نشده است، شباهت‌هایی با پویایی‌های ناشی از رقابت وجود دارد که واکنش به DeepSeek در JLF را شکل داد. به طور مشابه، مقررات هوش مصنوعی می‌تواند با تمرکز بر تقویت نوآوری و به حداکثر رساندن منافع عمومی - هم برای شرکت‌ها و هم برای مصرف‌کنندگان - تدوین شود، نه اینکه به عنوان مکانیزمی بالقوه برای جلوگیری از پیشرفت AICها یا مانع‌تراشی برای قهرمانان هوش مصنوعی داخلی که برای پر کردن شکاف تلاش می‌کنند، عمل کند.

این پروژه همچنین می‌تواند تبادل استعداد را تسهیل کند و یک زیرساخت محاسباتی مشترک (مرتبط با زیرساخت انرژی) را برای هوش مصنوعی متن‌باز تأمین مالی کند. از نمودار زیر مشخص است که فارغ‌التحصیلان با استعداد STEM در برخی از نقاط جهان ممکن است در حال حاضر برای دسترسی به زیرساخت‌های هوش مصنوعی در سطح جهانی که کشورشان فاقد آن است، با مشکل مواجه شوند.

یکی دیگر از زمینه‌های همکاری، ایجاد بهترین شیوه‌ها در مورد استانداردهای دسترسی باز برای مدل‌ها و مجموعه‌های داده، شامل وزن‌ها، کد و مستندات خواهد بود.

این پروژه همچنین می‌تواند همکاری جهانی در مورد تحقیقات ایمنی هوش مصنوعی را تقویت کند. به جای مسابقه مخفیانه برای رفع مشکلات همسویی، محققان از پاریس تا پکن تا بنگلور می‌توانند با هم در ارزیابی مدل‌ها و کاهش خطرات همکاری کنند. تمام یافته‌های ایمنی (به عنوان مثال، روش‌هایی برای کاهش خروجی‌های مضر یا ابزارهایی برای تفسیرپذیری) می‌تواند به سرعت در حوزه باز به اشتراک گذاشته شود.

این اصل تشخیص می‌دهد که ایمنی هوش مصنوعی یک کالای عمومی جهانی است - یک پیشرفت در یک آزمایشگاه (مثلاً یک الگوریتم جدید برای شفاف کردن استدلال هوش مصنوعی) باید به نفع همه باشد، نه اینکه اختصاصی نگه داشته شود. معیارهای ایمنی مشترک و رویدادهای چالشی می‌توانند برای تشویق فرهنگ مسئولیت جمعی سازماندهی شوند. این پروژه با تجمیع تحقیقات ایمنی، قصد دارد از سوء استفاده یا حوادث احتمالی هوش مصنوعی جلوتر بماند و به مردم اطمینان دهد که سیستم‌های قدرتمند هوش مصنوعی با دقت مدیریت می‌شوند.

تمرکز بر ریسک وجودی در نشست ایمنی هوش مصنوعی بریتانیا در سال 2023 در بلچلی پارک، با تأکید بیش از حد بر قیاس تکثیر هسته‌ای، فرصتی را برای بررسی سایر زمینه‌هایی که ایمنی در آنها یک کالای عمومی در نظر گرفته می‌شود، از دست داد: امنیت سایبری، آنتی‌بیوتیک‌ها و ایمونولوژی (با چندین ابتکار جالب پس از کووید-19) و ایمنی هوانوردی.

این پروژه همچنین می‌تواند با بنیاد جایزه ARC خصوصی همکاری کند و کار در حال انجام را برای تقویت توسعه سیستم‌های هوش مصنوعی ایمن و پیشرفته پیش ببرد. جایزه ARC، که توسط فرانسوا شوله، خالق کتابخانه متن‌باز Keras، و مایک نوپ، بنیانگذار شرکت نرم‌افزاری Zapier، تأسیس شده است، یک سازمان غیرانتفاعی است که مسابقات عمومی را برای پیشبرد تحقیقات هوش عمومی مصنوعی (AGI) برگزار می‌کند. رویداد شاخص آنها، مسابقه جایزه ARC، بیش از 1 میلیون دلار به شرکت‌کنندگانی ارائه می‌دهد که می‌توانند راه‌حل‌هایی را برای معیار ARC-AGI توسعه داده و متن‌باز کنند - آزمایشی که برای ارزیابی توانایی یک سیستم هوش مصنوعی برای تعمیم و کسب مهارت‌های جدید به طور کارآمد طراحی شده است.

تأکید بنیاد جایزه ARC بر راه‌حل‌های متن‌باز و مسابقات عمومی به طور یکپارچه با اهداف پروژه هوش انسانی برای تقویت همکاری بین‌المللی و شفافیت در توسعه هوش مصنوعی همسو است، همانطور که در وب‌سایت بنیاد جایزه ARC در بخش ‘AGI’ آمده است:

‘LLMها بر روی مقادیر غیرقابل تصوری از داده‌ها آموزش داده می‌شوند، اما همچنان نمی‌توانند با مشکلات ساده‌ای که روی آنها آموزش داده نشده‌اند سازگار شوند، یا اختراعات جدیدی انجام دهند، مهم نیست چقدر ابتدایی باشند. انگیزه‌های قوی بازار، تحقیقات پیشرو هوش مصنوعی را به سمت متن‌بسته سوق داده است. توجه و منابع تحقیقاتی به سمت یک بن‌بست کشیده می‌شوند. جایزه ARC برای الهام بخشیدن به محققان برای کشف رویکردهای فنی جدید طراحی شده است که پیشرفت AGI باز را به جلو می‌برد.’

مانند HGP، پروژه هوش انسانی بخشی از بودجه خود را به حاکمیت و نظارت اخلاقی اختصاص می‌دهد. این شامل بحث‌هایی در مورد کپی‌رایت خواهد بود. این پروژه می‌تواند به جامعه کمک کند تا اخلاق دسترسی به بهترین منبع اطلاعات در آموزش را به صورت رایگان در نظر بگیرد، در حالی که مدل‌های اختصاصی را بر اساس آن توسعه می‌دهد. در فضای زیست‌شناسی، به خوبی شناخته شده است که بانک داده پروتئین، که برای مدل AlphaFold گوگل DeepMind برای پیش‌بینی ساختار پروتئین حیاتی بود، احتمالاً به معادل 10 میلیارد دلار بودجه در طول 50 سال نیاز داشت. این پروژه می‌تواند به تفکر در مورد چگونگی ادامه تأمین مالی توسعه هوش مصنوعی یا چگونگی اشتراک درآمد AICهای اختصاصی با خالقان آثار اصلی کمک کند.

این اصول پاریس و پروژه هوش انسانی با هم به پیشبرد هوش مصنوعی در سطح جهانی به شیوه‌ای بازتر، مشارکتی‌تر و اخلاقی‌تر کمک می‌کنند. آنها بر اساس دستاوردهای مشارکت‌کنندگان پیشرو متن‌باز از اروپا تا خاورمیانه، هند و اکنون چین، در چارچوب‌ها و پلتفرم‌های موجود نرم‌افزار متن‌باز و خاص هوش مصنوعی ساخته خواهند شد.

تاریخ با هوش مصنوعی تکرار می‌شود

فرصتی که پیش روی ماست بسیار زیاد است. Mistral AI، kyutai، BFL، Stability و اخیراً DeepSeek به مردم این امید را داده‌اند که آینده‌ای که در آن همکاری با AICهای اختصاصی رقابت می‌کند یا حتی از آنها پیشی می‌گیرد، ممکن است.

ما هنوز در مراحل اولیه این پیشرفت تکنولوژیکی هستیم. ما باید از مشارکت‌های AICها در این زمینه سپاسگزار باشیم. نشست اقدام هوش مصنوعی باید فرصتی برای تقویت نوآوری مشارکتی در مقیاسی بی‌سابقه و آوردن هر چه بیشتر بازیگران به سمت درست تاریخ باشد.

دوباره سال 1789 است. ما شاهد مبارزه‌ای برای حاکمیت تکنولوژیکی، تمرکززدایی از قدرت و فراخوانی برای هوش مصنوعی به عنوان یک کالای عمومی هستیم. و درست مانند سال 1789، این انقلاب مهار نخواهد شد.