جشنواره ادبی، مکاشفه هوش مصنوعی
چند هفته پیش، جشنواره پر جنب و جوش ادبیات جایپور (JLF) در هند به طور غیرمنتظرهای به محفلی برای بحثی حیاتی درباره آینده هوش مصنوعی تبدیل شد. در طول یک پنل که ظاهراً بر میراث امپراتوری متمرکز بود، گفتگو به شدت تغییر جهت داد. حضار، مجذوب کتاب ‘از ویرانههای امپراتوری: شورش علیه غرب و بازسازی آسیا’ نوشته پانکاج میشرا، مجموعهای از سوالات دقیق را مطرح کردند، نه درباره ادبیات، بلکه درباره DeepSeek، یک مدل هوش مصنوعی مولد جدید از چین.
این سوالات - چگونه به اینجا رسیدیم؟ چگونه بهترین مسیر ممکن را برای آینده هوش مصنوعی ترسیم کنیم؟ چرا متنباز بودن در توسعه هوش مصنوعی کلیدی است؟ - بسیار فراتر از محوطه جشنواره طنینانداز شدند. آنها به یک رقابت تاریخی عمیق، اشتیاق به خوداتکایی و یک جنبش جهانی رو به رشد اشاره داشتند که از رویکردی بازتر و مشارکتیتر برای توسعه هوش مصنوعی حمایت میکند.
ریشههای تاریخی استقبال از DeepSeek
ظهور DeepSeek در یک جشنواره ادبی ممکن است عجیب به نظر برسد. با این حال، برجستگی آن عمیقاً با رویدادهای تاریخی و رقابتی دیرینه، به ویژه بین آسیا و غرب، در هم تنیده است. در حالی که آزمایشگاههای هوش مصنوعی اروپایی به دلیل پیشرفتهای متنباز خود مورد تحسین قرار گرفتهاند، استقبال از DeepSeek در آسیا طنین تاریخی بسیار عمیقتری دارد.
راه اندازی DeepSeek با پوشش رسانهای شدیدی مواجه شد. استقبال از آن در JLF احساسی را آشکار کرد که فراتر از بحثهای صرفاً عملکرد هوش مصنوعی بود. نویسندگان و روزنامهنگاران هندی، که اغلب منتقد چین هستند، خود را در مبارزهای مشترک علیه سلطه شرکتهای هوش مصنوعی آمریکایی (AIC) متحد یافتند. این اشتیاق برای DeepSeek در سراسر آسیا ریشه در تاریخ استعمار و اخیراً در اظهارات تحریکآمیز شرکتها دارد.
هوش مصنوعی: مبارزهای مدرن برای خوداتکایی
برای استفان پلات، نویسنده کتاب ‘گرگ و میش امپراتوری: جنگ تریاک و پایان آخرین عصر طلایی چین’، جاهطلبیهای تکنولوژیکی چین از زخمهای تاریخی آن جدا نیست. جنگهای تریاک (1839-1860) به عنوان نمادی قوی از چگونگی تحقیر چین توسط برتری تکنولوژیکی و نظامی بریتانیا عمل میکنند. این ‘قرن تحقیر’ به تلاش فعلی چین برای خوداتکایی، سرمایهگذاریهای تهاجمی آن در هوش مصنوعی، نیمههادیها و سایر فناوریهای حیاتی دامن میزند. این یک عزم برای اجتناب از وابستگی به فناوری غرب است، درسی که در آگاهی ملی حک شده است.
اعضای پنل هندی در JLF در این روایت اشتراک نظر داشتند. هند نیز مانند چین، نشان تاریک نفوذ شرکت هند شرقی را یدک میکشد. علاوه بر این، آنیتا آناند، روزنامهنگار بریتانیایی، ویدیویی جنجالی از سم آلتمن، مدیرعامل OpenAI، را برجسته کرد که در آن پتانسیل هند برای رقابت با AICها در آموزش مدلهای بنیادی را رد کرده و آن را ‘کاملاً ناامیدکننده’ خوانده بود. چنین اظهاراتی تنها عزم برای خوداتکایی در منطقه را تقویت کرده است.
هوش مصنوعی متنباز: نماد مقاومت
DeepSeek و آزمایشگاههای اروپایی که پیش از آن بودند، چراغ امیدی در مسابقه هوش مصنوعی ارائه کردهاند. انتخاب آنها برای پذیرش متنباز به نمادی قدرتمند از مقاومت در برابر سلطه مدلهای هوش مصنوعی اختصاصی تبدیل شده است.
انتشار DeepSeek R1 باید در چارچوب یک رقابت عمیقاً ریشهدار، به ویژه با ایالات متحده، درک شود. این رقابت آنقدر عمیق است که اروپا اغلب در بحثهای رقابت با فناوری ایالات متحده نادیده گرفته میشود.
سلطه AICها حتی مقایسههایی با استعمار در غرب را برانگیخته است. در مقالهای در آگوست 2024 با عنوان ‘ظهور استعمار نو تکنولوژیک’، هرمان هاوزر، عضو شورای نوآوری اروپا، و حازم دنی نقیب، محقق ارشد در دانشگاه کالج لندن (UCL)، نوشتند: ‘برخلاف استعمار قدیم، استعمار نو تکنولوژیک به معنای تصرف قلمرو نیست، بلکه به معنای کنترل فناوریهایی است که زیربنای اقتصاد جهانی و زندگی روزمره ما هستند. برای دستیابی به این هدف، ایالات متحده و چین به طور فزایندهای نوآورانهترین و پیچیدهترین بخشهای زنجیرههای تامین جهانی را به داخل کشور منتقل میکنند و در نتیجه نقاط انسداد استراتژیک ایجاد میکنند.’
رویکرد پیشگام متنباز آزمایشگاههای هوش مصنوعی اروپایی مانند Mistral، kyutai و تیم FAIR پاریس متا، و اکنون DeepSeek، جایگزین قانعکنندهای برای استراتژی مدل هوش مصنوعی اختصاصی AICها ارائه کرده است. این مشارکتهای متنباز در سطح جهانی طنینانداز شدهاند و پذیرش هوش مصنوعی متنباز را به عنوان نمادی از مقاومت در برابر سلطه هوش مصنوعی آمریکا بیشتر تثبیت کردهاند.
دلیل متنباز بودن: تاریخ تکرار میشود
همکاری تکنولوژیکی بر انرژی و سرعت شکوفا میشود، چیزی که در تکامل کد نرمافزار ذاتی است.
ژان تیرول، برنده فرانسوی جایزه نوبل اقتصاد، که در ابتدا از ظهور متنباز متحیر شده بود، در مقاله خود در سال 2000 با جاش لرنر، با عنوان ‘اقتصاد ساده متنباز’ سوال کرد: ‘چرا هزاران برنامهنویس درجه یک باید آزادانه در ارائه یک کالای عمومی مشارکت کنند؟ هر توضیحی مبتنی بر نوعدوستی فقط تا حدی پیش میرود.’
در حالی که در آن زمان قابل درک بود، هر کسی که پیشرفت هوش مصنوعی را در سالهای اخیر دنبال میکند، به ویژه پس از انتشار DeepSeek R1، پاسخ را بدیهی میداند. تأثیر FAIR پاریس در متا با متنباز کردن Llama، ظهور شهابسنگوار Mistral و بنیانگذاران آن از طریق متنباز کردن یک مدل یادگیری زبان 7B (LLM) و DeepSeek R1، دلایل قانعکنندهای را در پشت تعهد این برنامهنویسان و دانشمندان به متنباز نشان میدهد.
همچنین روشن میکند که چرا سم آلتمن و بنیانگذارانش نام ‘OpenAI’ را برای جذب استعداد انتخاب کردند. آیا هیچ یک از این آزمایشگاههای پیشرو اگر رویکردی اختصاصی را انتخاب میکردند، به چنین تبلیغات گستردهای دست مییافتند و چنین برندهای شخصی قدرتمندی را در جامعه هوش مصنوعی ایجاد میکردند؟ پاسخ یک نه قاطع است.
دو نقل قول قدرتمند از سال 1999، به ترتیب توسط ریچارد استالمن، برنامهنویس، و اریک ریموند، توسعهدهنده، که در ابتدای مقاله گنجانده شدهاند، استقبال از DeepSeek در JLF را روشن میکنند و نیروهای ایدئولوژیک عمیقتر در حال بازی را برجسته میکنند:
‘این ایده که سیستم اجتماعی نرمافزار اختصاصی - سیستمی که میگوید شما مجاز به اشتراکگذاری یا تغییر نرمافزار نیستید - غیر اجتماعی است، غیراخلاقی است، به سادگی اشتباه است، ممکن است برای برخی افراد تعجبآور باشد. اما چه چیز دیگری میتوانیم در مورد سیستمی بگوییم که مبتنی بر تقسیم عموم و ناتوان نگه داشتن کاربران است؟’ - ریچارد استالمن
‘تابع مطلوبیت هکرهای لینوکس، کلاسیک اقتصادی نیست، بلکه رضایت نفس و شهرت غیرملموس آنها در میان سایر هکرها است. … فرهنگهای داوطلبانهای که به این شکل کار میکنند در واقع غیرمعمول نیستند. یکی دیگر از مواردی که من مدتها در آن شرکت کردهام، طرفداران علمی تخیلی است که برخلاف هکردام، به صراحت egoboo (افزایش شهرت فرد در میان سایر طرفداران) را به رسمیت میشناسد.’ - اریک ریموند
مسیر یونیکس در دهههای 1970 و 1980 قیاس قانعکنندهای برای وضعیت فعلی هوش مصنوعی ارائه میدهد. ترویج اولیه و توزیع رایگان یونیکس توسط AT&T در دانشگاه، نوآوری و پذیرش را تقویت کرد. با این حال، هنگامی که AT&T در اواخر دهه 1970 مجوز اختصاصی را تحمیل کرد، به ناچار منجر به راهاندازی BSD Unix توسط دانشگاه برکلی، یک جایگزین باز، و در نهایت ایجاد لینوکس توسط لینوس توروالدز شد. توسعه لینوکس توسط توروالدز در اروپا، مرکز ثقل نرمافزار متنباز را از ایالات متحده دور کرد.
شباهتها، حتی از نظر جغرافیایی، با تکامل هوش مصنوعی چشمگیر است. با این حال، این بار، مناطق جغرافیایی جدیدی ظهور کردهاند: TII ابوظبی با مدلهای Falcon، DeepSeek چین، Qwen علیبابا، و اخیراً، Krutrim AI Lab هند با مدلهای متنباز خود برای زبانهای هندی.
تیم FAIR پاریس متا، همراه با آزمایشگاههای پیشرو هوش مصنوعی اروپایی و آزمایشگاههای پیشرو جدیدتر (DeepSeek، Falcon، Qwen، Krutrim)، نوآوری هوش مصنوعی را به طور قابل توجهی تسریع کردهاند. آنها با به اشتراکگذاری آزادانه مقالات تحقیقاتی و کد، موارد زیر را انجام دادهاند:
- نسل جدیدی از مهندسان و محققان هوش مصنوعی را در تکنیکهای پیشرفته هوش مصنوعی آموزش دادهاند.
- یک اکوسیستم همکاری باز ایجاد کردهاند که امکان پیشرفتهای سریع در خارج از آزمایشگاههای هوش مصنوعی اختصاصی را فراهم میکند.
- مدلهای هوش مصنوعی جایگزین را ارائه کردهاند و تضمین میکنند که هوش مصنوعی توسط شرکتهای هوش مصنوعی آمریکایی انحصاری نمیشود.
این چهار اکوسیستم (اروپا، هند، ابوظبی و چین) میتوانند یک اتحاد قدرتمند هوش مصنوعی متنباز را برای به چالش کشیدن AICهای غالب که هنوز تحت یک ذهنیت هوش مصنوعی اختصاصی فعالیت میکنند، تشکیل دهند.
در یک پرسش و پاسخ (AMA) در 31 ژانویه 2025، پس از انتشار DeepSeek R1، آلتمن اذعان کرد که رویکرد مدل هوش مصنوعی اختصاصی در سمت اشتباه تاریخ قرار داشته است.
با گذشت زمان، آزمایشگاههای هوش مصنوعی در سراسر جهان ممکن است انتخاب کنند که به این اتحاد بپیوندند تا به طور جمعی این حوزه را پیش ببرند. این اولین نمونهای نخواهد بود که یک حوزه علمی از طریق یک ابتکار غیرانتفاعی از مرزها و ایدئولوژیهای سیاسی فراتر میرود. این یک حالت رقابت را ارائه میدهد که از تحریک شکایات ضد استعماری که اغلب توسط جنوب جهانی بیان میشود، جلوگیری میکند.
سوابق تاریخی: پروژه ژنوم انسانی به عنوان الگویی برای هوش مصنوعی
به عنوان یک زیستشناس، من به ویژه از دستاوردهای پروژه ژنوم انسانی (HGP) و اینکه چگونه در نهایت از ابتکار انتفاعی Celera Genomics پیشی گرفت و به نفع این حوزه و بشریت به عنوان یک کل بود، آگاهم.
HGP یک ابتکار تحقیقاتی بینالمللی پیشگامانه بود که کل ژنوم انسان را نقشهبرداری و توالییابی کرد. این پروژه که در سال 2003 پس از 13 سال همکاری تکمیل شد، طبق گزارش سال 2011 که در سال 2013 بهروزرسانی شد، نزدیک به 800 میلیارد دلار تأثیر اقتصادی از سرمایهگذاری 3 میلیارد دلاری ایجاد کرده است (بازگشت سرمایه به اقتصاد ایالات متحده 141 به یک - هر 1 دلار سرمایهگذاری فدرال HGP به تولید 141 دلار در اقتصاد کمک کرده است). این پروژه پزشکی، بیوتکنولوژی و ژنتیک را متحول کرده و پیشرفتهایی را در پزشکی شخصی، پیشگیری از بیماری و تحقیقات ژنومی امکانپذیر کرده است. کار توالییابی و تحقیقات توسط 20 آزمایشگاه در شش کشور انجام شد: ایالات متحده، بریتانیا، فرانسه، آلمان، ژاپن و چین.
در حالی که Celera Genomics تلاش کرد تا توالیهای ژنومی را برای سود توالییابی کند، HGP اشتراکگذاری باز دادهها را در اولویت قرار داد که در اصول برمودا آن گنجانده شده است. این اصول که در طول نشست استراتژی بینالمللی توالییابی ژنوم انسانی در برمودا در فوریه 1996 ایجاد شد، در شکلدهی سیاستهای اشتراکگذاری دادهها برای HGP بسیار مهم بود و تأثیر ماندگاری بر شیوههای تحقیقات ژنومی در سطح جهانی داشته است. اصول کلیدی آن عبارت بودند از:
- انتشار فوری دادهها: تمام دادههای توالی ژنومی انسانی تولید شده توسط HGP باید در پایگاههای داده عمومی، ترجیحاً ظرف 24 ساعت پس از تولید، منتشر میشد. هدف از این انتشار سریع، تسریع کشف علمی و به حداکثر رساندن منافع اجتماعی بود.
- دسترسی آزاد و نامحدود: دادهها باید به طور رایگان در اختیار جامعه علمی جهانی و عموم قرار میگرفت، بدون هیچ محدودیتیدر استفاده از آنها برای اهداف تحقیق یا توسعه.
- جلوگیری از ادعاهای مالکیت معنوی: شرکتکنندگان توافق کردند که هیچ حقوق مالکیت معنوی بر دادههای توالی ژنومی اولیه ادعا نخواهد شد، که باعث ترویج اخلاق علم باز و جلوگیری از موانع بالقوه برای تحقیق به دلیل ثبت اختراع میشود.
از نظر حاکمیت، HGP یک ابتکار علمی مشارکتی و هماهنگ بود، نه یک سازمان یا شرکت مستقل. این یک تلاش غیرمتمرکز بود که از طریق کمکهای مالی و قراردادهای دولتی به موسسات تحقیقاتی مختلف تأمین میشد. بخشی از بودجه آن (3-5٪) به مطالعه و رسیدگی به نگرانیهای اخلاقی، حقوقی و اجتماعی مربوط به توالییابی ژنوم انسانی اختصاص داشت.
پل زدن بین ایمنی هوش مصنوعی و هوش مصنوعی متنباز
یکی دیگر از مزایای حیاتی هوش مصنوعی متنباز، نقش آن در تحقیقات ایمنی هوش مصنوعی است.
نشست هوش مصنوعی سئول در سال 2024 منحصراً بر خطرات وجودی در زمانی متمرکز بود که AICها برتری قابل توجهی نسبت به بقیه جهان داشتند. در ماه مه 2024، اریک اشمیت، مدیرعامل سابق گوگل، ادعا کرد که ایالات متحده 2 تا 3 سال از چین در هوش مصنوعی جلوتر است، در حالی که اروپا بیش از حد درگیر مقررات است تا مرتبط باشد. اگر این نشست موفق میشد، عملاً کنترل تصمیمات ایمنی هوش مصنوعی را به این شرکتها واگذار میکرد. خوشبختانه، این اتفاق نیفتاد.
اکنون که هوش مصنوعی متنباز در حال پر کردن شکاف تکنولوژیکی است، بحثهای ایمنی دیگر صرفاً توسط تعداد انگشت شماری از بازیگران مسلط دیکته نخواهد شد. در عوض، گروهی گستردهتر و متنوعتر از ذینفعان - از جمله محققان، سیاستگذاران و آزمایشگاههای هوش مصنوعی از اروپا، هند، چین و ابوظبی - این فرصت را دارند که در کنار AICها بحث را شکل دهند.
علاوه بر این، هوش مصنوعی متنباز قابلیتهای بازدارندگی جهانی را افزایش میدهد و تضمین میکند که هیچ بازیگر واحدی نمیتواند سیستمهای پیشرفته هوش مصنوعی را بدون پاسخگویی انحصاری یا سوء استفاده کند. این رویکرد غیرمتمرکز به ایمنی هوش مصنوعی به کاهش تهدیدات بالقوه وجودی با توزیع عادلانهتر قابلیتها و نظارت در سراسر اکوسیستم جهانی هوش مصنوعی کمک میکند.
یک پروژه هوش انسانی با اصول پاریس
نشست اقدام هوش مصنوعی در پاریس هفته آینده چه نقشی میتواند در شکلدهی آینده هوش مصنوعی ایفا کند؟
این یک فرصت حیاتی برای ایجاد یک پروژه هوش انسانی، با الگوبرداری از پروژه ژنوم انسانی، برای پیشبرد و حمایت از توسعه هوش مصنوعی متنباز در مقیاس جهانی ارائه میدهد. مشارکتهای متنباز فعلی، از آزمایشگاههای پیشگام هوش مصنوعی اروپایی تا DeepSeek، در حال حاضر این حوزه را تسریع میکنند و به پر کردن شکاف با AICها کمک میکنند.
قابلیتهای هوش مصنوعی به طور قابل توجهی با بلوغ اکوسیستم عمومی متنباز، با هزاران پروژه بالغ، مدلهای حاکمیت اختصاصی و ادغام عمیق در شرکتها، دانشگاهها و دولت افزایش مییابد.
اکوسیستم متنباز هوش مصنوعی همچنین از پلتفرمهایی مانند Github و Gitlab بهره میبرد. اخیراً، پلتفرمهای اختصاصی برای هوش مصنوعی متنباز، مانند Hugging Face - یک شرکت آمریکایی که توسط سه کارآفرین فرانسوی تأسیس شده است - شروع به ایفای نقش حیاتی به عنوان پلتفرمهای توزیع برای جامعه کردهاند.
با توجه به بلوغ نسبی اکوسیستم متنباز هوش مصنوعی در مقایسه با توالییابی ژنوم انسانی در اوایل دهه 1990، هوش مصنوعی متنباز چگونه میتواند از یک پروژه هوش انسانی بهرهمند شود؟
برای مثال، اتحادیه اروپا اغلب توسط AICها و آزمایشگاههای پیشرو هوش مصنوعی خود به دلیل مقررات مربوط به متنباز مورد انتقاد قرار میگیرد. یک پروژه هوش انسانی میتواند یک تلاش مشترک را برای توسعه همسویی و استانداردهای نظارتی در سراسر کشورها و مناطق شرکتکننده اختصاص دهد. یک رویکرد هماهنگ، با مشارکتهای اولیه از اروپا، هند، ابوظبی و چین، میتواند انتشار مدلهای متنباز را در سراسر این منطقه نظارتی مشترک تسهیل کند (نوعی منطقه تجارت آزاد برای متنباز).
در حالی که به طور قطعی ثابت نشده است، شباهتهایی با پویاییهای ناشی از رقابت وجود دارد که واکنش به DeepSeek در JLF را شکل داد. به طور مشابه، مقررات هوش مصنوعی میتواند با تمرکز بر تقویت نوآوری و به حداکثر رساندن منافع عمومی - هم برای شرکتها و هم برای مصرفکنندگان - تدوین شود، نه اینکه به عنوان مکانیزمی بالقوه برای جلوگیری از پیشرفت AICها یا مانعتراشی برای قهرمانان هوش مصنوعی داخلی که برای پر کردن شکاف تلاش میکنند، عمل کند.
این پروژه همچنین میتواند تبادل استعداد را تسهیل کند و یک زیرساخت محاسباتی مشترک (مرتبط با زیرساخت انرژی) را برای هوش مصنوعی متنباز تأمین مالی کند. از نمودار زیر مشخص است که فارغالتحصیلان با استعداد STEM در برخی از نقاط جهان ممکن است در حال حاضر برای دسترسی به زیرساختهای هوش مصنوعی در سطح جهانی که کشورشان فاقد آن است، با مشکل مواجه شوند.
یکی دیگر از زمینههای همکاری، ایجاد بهترین شیوهها در مورد استانداردهای دسترسی باز برای مدلها و مجموعههای داده، شامل وزنها، کد و مستندات خواهد بود.
این پروژه همچنین میتواند همکاری جهانی در مورد تحقیقات ایمنی هوش مصنوعی را تقویت کند. به جای مسابقه مخفیانه برای رفع مشکلات همسویی، محققان از پاریس تا پکن تا بنگلور میتوانند با هم در ارزیابی مدلها و کاهش خطرات همکاری کنند. تمام یافتههای ایمنی (به عنوان مثال، روشهایی برای کاهش خروجیهای مضر یا ابزارهایی برای تفسیرپذیری) میتواند به سرعت در حوزه باز به اشتراک گذاشته شود.
این اصل تشخیص میدهد که ایمنی هوش مصنوعی یک کالای عمومی جهانی است - یک پیشرفت در یک آزمایشگاه (مثلاً یک الگوریتم جدید برای شفاف کردن استدلال هوش مصنوعی) باید به نفع همه باشد، نه اینکه اختصاصی نگه داشته شود. معیارهای ایمنی مشترک و رویدادهای چالشی میتوانند برای تشویق فرهنگ مسئولیت جمعی سازماندهی شوند. این پروژه با تجمیع تحقیقات ایمنی، قصد دارد از سوء استفاده یا حوادث احتمالی هوش مصنوعی جلوتر بماند و به مردم اطمینان دهد که سیستمهای قدرتمند هوش مصنوعی با دقت مدیریت میشوند.
تمرکز بر ریسک وجودی در نشست ایمنی هوش مصنوعی بریتانیا در سال 2023 در بلچلی پارک، با تأکید بیش از حد بر قیاس تکثیر هستهای، فرصتی را برای بررسی سایر زمینههایی که ایمنی در آنها یک کالای عمومی در نظر گرفته میشود، از دست داد: امنیت سایبری، آنتیبیوتیکها و ایمونولوژی (با چندین ابتکار جالب پس از کووید-19) و ایمنی هوانوردی.
این پروژه همچنین میتواند با بنیاد جایزه ARC خصوصی همکاری کند و کار در حال انجام را برای تقویت توسعه سیستمهای هوش مصنوعی ایمن و پیشرفته پیش ببرد. جایزه ARC، که توسط فرانسوا شوله، خالق کتابخانه متنباز Keras، و مایک نوپ، بنیانگذار شرکت نرمافزاری Zapier، تأسیس شده است، یک سازمان غیرانتفاعی است که مسابقات عمومی را برای پیشبرد تحقیقات هوش عمومی مصنوعی (AGI) برگزار میکند. رویداد شاخص آنها، مسابقه جایزه ARC، بیش از 1 میلیون دلار به شرکتکنندگانی ارائه میدهد که میتوانند راهحلهایی را برای معیار ARC-AGI توسعه داده و متنباز کنند - آزمایشی که برای ارزیابی توانایی یک سیستم هوش مصنوعی برای تعمیم و کسب مهارتهای جدید به طور کارآمد طراحی شده است.
تأکید بنیاد جایزه ARC بر راهحلهای متنباز و مسابقات عمومی به طور یکپارچه با اهداف پروژه هوش انسانی برای تقویت همکاری بینالمللی و شفافیت در توسعه هوش مصنوعی همسو است، همانطور که در وبسایت بنیاد جایزه ARC در بخش ‘AGI’ آمده است:
‘LLMها بر روی مقادیر غیرقابل تصوری از دادهها آموزش داده میشوند، اما همچنان نمیتوانند با مشکلات سادهای که روی آنها آموزش داده نشدهاند سازگار شوند، یا اختراعات جدیدی انجام دهند، مهم نیست چقدر ابتدایی باشند. انگیزههای قوی بازار، تحقیقات پیشرو هوش مصنوعی را به سمت متنبسته سوق داده است. توجه و منابع تحقیقاتی به سمت یک بنبست کشیده میشوند. جایزه ARC برای الهام بخشیدن به محققان برای کشف رویکردهای فنی جدید طراحی شده است که پیشرفت AGI باز را به جلو میبرد.’
مانند HGP، پروژه هوش انسانی بخشی از بودجه خود را به حاکمیت و نظارت اخلاقی اختصاص میدهد. این شامل بحثهایی در مورد کپیرایت خواهد بود. این پروژه میتواند به جامعه کمک کند تا اخلاق دسترسی به بهترین منبع اطلاعات در آموزش را به صورت رایگان در نظر بگیرد، در حالی که مدلهای اختصاصی را بر اساس آن توسعه میدهد. در فضای زیستشناسی، به خوبی شناخته شده است که بانک داده پروتئین، که برای مدل AlphaFold گوگل DeepMind برای پیشبینی ساختار پروتئین حیاتی بود، احتمالاً به معادل 10 میلیارد دلار بودجه در طول 50 سال نیاز داشت. این پروژه میتواند به تفکر در مورد چگونگی ادامه تأمین مالی توسعه هوش مصنوعی یا چگونگی اشتراک درآمد AICهای اختصاصی با خالقان آثار اصلی کمک کند.
این اصول پاریس و پروژه هوش انسانی با هم به پیشبرد هوش مصنوعی در سطح جهانی به شیوهای بازتر، مشارکتیتر و اخلاقیتر کمک میکنند. آنها بر اساس دستاوردهای مشارکتکنندگان پیشرو متنباز از اروپا تا خاورمیانه، هند و اکنون چین، در چارچوبها و پلتفرمهای موجود نرمافزار متنباز و خاص هوش مصنوعی ساخته خواهند شد.
تاریخ با هوش مصنوعی تکرار میشود
فرصتی که پیش روی ماست بسیار زیاد است. Mistral AI، kyutai، BFL، Stability و اخیراً DeepSeek به مردم این امید را دادهاند که آیندهای که در آن همکاری با AICهای اختصاصی رقابت میکند یا حتی از آنها پیشی میگیرد، ممکن است.
ما هنوز در مراحل اولیه این پیشرفت تکنولوژیکی هستیم. ما باید از مشارکتهای AICها در این زمینه سپاسگزار باشیم. نشست اقدام هوش مصنوعی باید فرصتی برای تقویت نوآوری مشارکتی در مقیاسی بیسابقه و آوردن هر چه بیشتر بازیگران به سمت درست تاریخ باشد.
دوباره سال 1789 است. ما شاهد مبارزهای برای حاکمیت تکنولوژیکی، تمرکززدایی از قدرت و فراخوانی برای هوش مصنوعی به عنوان یک کالای عمومی هستیم. و درست مانند سال 1789، این انقلاب مهار نخواهد شد.