فرسایش بازبودن: چالش هوش مصنوعی 'متن‌باز'

اصطلاح ‘متن‌باز’ (open source) در دنیای فناوری طنین قدرتمندی دارد. این اصطلاح تصاویری از نوآوری مشارکتی، دانش مشترک و باوری بنیادین به شفافیت را تداعی می‌کند. این روحیه نیم قرن پیش با تشکیل Homebrew Computer Club در Menlo Park، کالیفرنیا به وضوح تجسم یافت. این جمع از علاقه‌مندان و تعمیرکاران فقط ماشین نمی‌ساختند؛ آن‌ها فرهنگی را بنا نهادند که بر تبادل آزادانه ایده‌ها و نرم‌افزار استوار بود و سنگ بنای جنبش متن‌باز را گذاشتند که محاسبات را متحول کرد. با این حال، امروزه، این میراث به سختی به دست آمده و خود تعریف باز بودن با چالشی ظریف اما مهم روبرو است، به ویژه در حوزه به سرعت در حال گسترش هوش مصنوعی. تعداد فزاینده‌ای از شرکت‌هایی که مدل‌های پیچیده هوش مصنوعی را توسعه می‌دهند، مشتاقانه ساخته‌های خود را ‘متن‌باز’ می‌نامند، اما نگاهی دقیق‌تر نشان می‌دهد که این برچسب اغلب به صورت سطحی به کار می‌رود و واقعیتی را پنهان می‌کند که از اصول اصلی این جنبش کوتاه می‌آید. این رقیق شدن معنا صرفاً یک بحث معنایی نیست؛ بلکه تهدیدی واقعی برای اصول شفافیت و تکرارپذیری است که به ویژه در جامعه علمی از اهمیت بالایی برخوردارند.

درک روح واقعی همکاری باز

برای درک وضعیت فعلی، ابتدا باید قدردان معنای واقعی ‘متن‌باز’ بود. این فراتر از نرم‌افزار رایگان است؛ فلسفه‌ای است که ریشه در پیشرفت جمعی و اعتماد قابل تأیید دارد. سنگ بنای این فلسفه بر چهار آزادی اساسی استوار است:

  1. آزادی اجرای برنامه برای هر هدفی.
  2. آزادی مطالعه نحوه کار برنامه و تغییر آن به گونه‌ای که محاسبات شما را آنطور که می‌خواهید انجام دهد. دسترسی به کد منبع پیش‌شرط این امر است.
  3. آزادی توزیع مجدد نسخه‌ها تا بتوانید به دیگران کمک کنید.
  4. آزادی توزیع نسخه‌های اصلاح شده خود به دیگران. با انجام این کار می‌توانید به کل جامعه فرصت دهید تا از تغییرات شما بهره‌مند شوند. دسترسی به کد منبع پیش‌شرط این امر است.

این آزادی‌ها، که معمولاً در مجوزهایی مانند GNU General Public License (GPL)، MIT License یا Apache License گنجانده شده‌اند، از لحاظ تاریخی بر کد منبع (source code) متمرکز بوده‌اند. کد منبع – دستورالعمل‌های قابل خواندن توسط انسان که توسط برنامه‌نویسان نوشته شده‌اند – طرح اولیه نرم‌افزار سنتی است. در دسترس قرار دادن این کد به صورت باز به هر کسی اجازه می‌دهد تا آن را بررسی کند، منطق آن را بفهمد، نقص‌های احتمالی را شناسایی کند، آن را با نیازهای جدید تطبیق دهد و آن بهبودها را به اشتراک بگذارد.

این مدل کاتالیزور فوق‌العاده‌ای برای نوآوری و پیشرفت علمی بوده است. تأثیر ابزارهایی را که به راحتی در دسترس محققان در سراسر جهان قرار دارند، در نظر بگیرید:

  • تحلیل آماری: نرم‌افزاری مانند R Studio یک محیط قدرتمند، شفاف و قابل توسعه برای محاسبات آماری و گرافیک فراهم می‌کند و به سنگ بنای تجزیه و تحلیل داده‌ها در زمینه‌های علمی بی‌شماری تبدیل شده است. باز بودن آن امکان بررسی همتا روش‌ها و توسعه بسته‌های تخصصی را فراهم می‌کند.
  • دینامیک سیالات محاسباتی: OpenFOAM کتابخانه پیچیده‌ای برای شبیه‌سازی جریان سیالات ارائه می‌دهد که در زمینه‌هایی از مهندسی هوافضا گرفته تا علوم محیطی حیاتی است. ماهیت باز آن امکان سفارشی‌سازی و تأیید شبیه‌سازی‌های پیچیده را فراهم می‌کند.
  • سیستم‌های عامل: Linux و سایر سیستم‌عامل‌های متن‌باز ستون فقرات بسیاری از زیرساخت‌های محاسباتی جهان، از جمله خوشه‌های محاسباتی با کارایی بالا علمی را تشکیل می‌دهند که به دلیل پایداری، انعطاف‌پذیری و شفافیت خود ارزشمند هستند.

مزایا بسیار فراتر از صرفه‌جویی در هزینه است. متن‌باز تکرارپذیری (reproducibility) را تقویت می‌کند که سنگ بنای روش علمی است. هنگامی که ابزارها و کدهای مورد استفاده در تحقیق باز هستند، دانشمندان دیگر می‌توانند آزمایش‌ها را تکرار کنند، یافته‌ها را تأیید کنند و با اطمینان بر روی کار بنا کنند. این امر همکاری جهانی را ترویج می‌کند، موانع را از بین می‌برد و به محققان از پیشینه‌ها و مؤسسات مختلف اجازه می‌دهد تا در چالش‌های مشترک مشارکت کنند. این امر طول عمر و جلوگیری از وابستگی به فروشنده (vendor lock-in) را تضمین می‌کند و سرمایه‌گذاری‌های تحقیقاتی را از هوس‌های شرکت‌های نرم‌افزاری اختصاصی محافظت می‌کند. با اجازه دادن به انتشار سریع و تکرار ایده‌ها و تکنیک‌های جدید، کشف را تسریع می‌کند. اخلاق متن‌باز اساساً با پیگیری علمی دانش از طریق شفافیت، بررسی دقیق و پیشرفت مشترک همسو است.

هوش مصنوعی: جانوری کاملاً متفاوت

پارادایم تثبیت شده متن‌باز، که به طور ایمن حول دسترسی به کد منبع ساخته شده است، هنگام اعمال در حوزه هوش مصنوعی، به ویژه مدل‌های مقیاس بزرگ مانند مدل‌های زبان بزرگ (LLMs) بنیادی، با تلاطم قابل توجهی روبرو می‌شود. در حالی که این سیستم‌های هوش مصنوعی قطعاً شامل کد هستند، عملکرد و رفتار آن‌ها توسط عناصر بسیار پیچیده‌تر و اغلب غیرشفاف شکل می‌گیرد. صرفاً انتشار کد معماری برای یک شبکه عصبی با باز بودن واقعی به همان شکلی که برای نرم‌افزار سنتی صدق می‌کند، برابر نیست.

یک مدل هوش مصنوعی، به ویژه یک مدل یادگیری عمیق، معمولاً از چندین مؤلفه کلیدی تشکیل شده است:

  1. معماری مدل (Model Architecture): این طراحی ساختاری شبکه عصبی است – آرایش لایه‌ها، نورون‌ها و اتصالات. شرکت‌ها اغلب این اطلاعات را منتشر می‌کنند و آن را به عنوان مدرکی دال بر باز بودن ارائه می‌دهند. این شبیه به اشتراک‌گذاری طرح اولیه یک موتور است.
  2. وزن‌های مدل (پارامترها) (Model Weights/Parameters): این‌ها مقادیر عددی، اغلب میلیاردها عدد، در داخل شبکه هستند که در طول فرآیند آموزش تنظیم شده‌اند. آن‌ها الگوهای آموخته شده و دانش استخراج شده از داده‌های آموزشی را نشان می‌دهند. انتشار وزن‌ها به دیگران اجازه می‌دهد تا از مدل از پیش آموزش دیده استفاده کنند. این مانند ارائه موتور کاملاً مونتاژ شده و آماده به کار است.
  3. داده‌های آموزشی (Training Data): این شاید حیاتی‌ترین و اغلب پنهان‌ترین مؤلفه باشد. مدل‌های بنیادی بر روی مجموعه داده‌های عظیمی آموزش داده می‌شوند که اغلب از اینترنت جمع‌آوری شده یا از مجموعه‌های اختصاصی یا خصوصی (مانند سوابق پزشکی که نگرانی‌های قابل توجهی در مورد حریم خصوصی ایجاد می‌کنند) تهیه می‌شوند. ترکیب، سرپرستی، فیلتر کردن و سوگیری‌های بالقوه در این داده‌ها عمیقاً بر قابلیت‌ها، محدودیت‌ها و رفتار اخلاقی مدل تأثیر می‌گذارد. بدون اطلاعات دقیق در مورد داده‌های آموزشی، درک چرا یک مدل به شیوه‌ای خاص رفتار می‌کند، یا ارزیابی مناسب بودن و ایمنی آن برای کاربردهای خاص، فوق‌العاده دشوار می‌شود. این مخلوط سوخت مخفی و شرایط دقیقی است که موتور تحت آن آب‌بندی شده است.
  4. کد و فرآیند آموزش (Training Code and Process): این شامل الگوریتم‌های خاص مورد استفاده برای آموزش، تکنیک‌های بهینه‌سازی، ابرپارامترهای انتخاب شده (تنظیماتی که فرآیند یادگیری را کنترل می‌کنند)، زیرساخت محاسباتی به کار گرفته شده و انرژی قابل توجه مصرف شده است. تغییرات جزئی در فرآیند آموزش می‌تواند منجر به رفتارهای متفاوت مدل شود و تکرارپذیری را حتی اگر معماری و داده‌ها مشخص باشند، چالش‌برانگیز می‌کند. این نشان‌دهنده مشخصات مهندسی دقیق، ابزارآلات و شرایط کارخانه‌ای است که برای ساخت و تنظیم موتور استفاده شده است.

بسیاری از سیستم‌هایی که در حال حاضر به عنوان هوش مصنوعی ‘متن‌باز’ به بازار عرضه می‌شوند، عمدتاً دسترسی به معماری مدل و وزن‌های از پیش آموزش دیده را ارائه می‌دهند. در حالی که این به کاربران اجازه می‌دهد مدل را اجرا کنند و شاید آن را بر روی مجموعه داده‌های کوچکتر تنظیم دقیق (fine-tune) کنند، به طور حیاتی شفافیت لازم در مورد داده‌ها و فرآیند آموزش را فراهم نمی‌کند. این به شدت توانایی مطالعه واقعی ویژگی‌های بنیادی مدل یا اصلاح آن به روش‌های عمیقاً معنادار را که نیازمند آموزش مجدد یا درک ریشه‌های آن است، محدود می‌کند. آزادی‌های مطالعه و اصلاح، که برای تعریف متن‌باز مرکزی هستند، هنگامی که عناصر حیاتی داده‌ها و روش‌شناسی آموزش پنهان می‌مانند، به طور قابل توجهی مختل می‌شوند. تکرار ایجاد مدل از ابتدا – یک آزمون کلیدی برای درک و تأیید علمی – عملاً غیرممکن می‌شود.

روند نگران‌کننده ‘بازنمایی’ (Openwashing) در هوش مصنوعی

این شکاف بین برچسب و واقعیت باعث ایجاد عملی به نام ‘بازنمایی’ (openwashing) شده است. این اصطلاح عمل شرکت‌هایی را توصیف می‌کند که از شهرت مثبت و مزایای درک شده ‘متن‌باز’ برای بازاریابی و مزیت استراتژیک استفاده می‌کنند، در حالی که همزمان دسترسی به مؤلفه‌های حیاتی مانند اطلاعات دقیق داده‌های آموزشی یا کد مورد استفاده برای خود آموزش را دریغ می‌کنند. آن‌ها سیستم‌های خود را در زبان باز بودن می‌پوشانند بدون اینکه اصول سختگیرانه شفافیت و دسترسی جامعه را به طور کامل بپذیرند.

چندین مدل برجسته هوش مصنوعی، علیرغم استفاده گسترده و گاهی اوقات داشتن نام ‘باز’، هنگامی که با تعریف جامع متن‌باز که توسط سازمان‌هایی مانند Open Source Initiative (OSI) حمایت می‌شود، سنجیده می‌شوند، کوتاه می‌آیند. تحلیلی توسط OSI، که از سال 2022 با جدیت برای روشن کردن معنای متن‌باز در زمینه هوش مصنوعی تلاش کرده است، نگرانی‌هایی را در مورد چندین مدل محبوب برجسته کرد:

  • Llama 2 & Llama 3.x (Meta): در حالی که وزن‌ها و معماری مدل در دسترس هستند، محدودیت‌های استفاده و شفافیت ناقص در مورد مجموعه داده کامل آموزشی و فرآیند، همسویی آن‌ها را با ارزش‌های سنتی متن‌باز محدود می‌کند.
  • Grok (X): به طور مشابه، در حالی که در دسترس قرار گرفته است، فقدان اطلاعات جامع در مورد داده‌های آموزشی و روش‌شناسی آن، سؤالاتی را در مورد باز بودن واقعی آن ایجاد می‌کند.
  • Phi-2 (Microsoft): اغلب به عنوان یک ‘مدل باز’ توصیف می‌شود، اما شفافیت کامل در مورد فرآیند ایجاد و داده‌های آن محدود باقی می‌ماند.
  • Mixtral (Mistral AI): اگرچه بخش‌هایی منتشر شده است، اما به دلیل محدودیت در دسترسی به تمام مؤلفه‌های لازم برای مطالعه و اصلاح، معیارهای کامل متن‌باز را برآورده نمی‌کند.

این مثال‌ها در تضاد با تلاش‌هایی هستند که برای پایبندی بیشتر به اصول متن‌باز تلاش می‌کنند:

  • OLMo (Allen Institute for AI): OLMo که توسط یک مؤسسه تحقیقاتی غیرانتفاعی توسعه یافته است، به صراحت با در نظر گرفتن باز بودن طراحی شده است و نه تنها وزن‌ها بلکه کد آموزش و جزئیات مربوط به داده‌های مورد استفاده را نیز منتشر می‌کند.
  • LLM360’s CrystalCoder: یک پروژه جامعه‌محور با هدف شفافیت کامل در سراسر چرخه عمر مدل، از جمله داده‌ها، رویه‌های آموزش و معیارهای ارزیابی.

چرا درگیر بازنمایی شویم؟ انگیزه‌ها چند وجهی هستند:

  1. بازاریابی و ادراک: برچسب ‘متن‌باز’ حسن نیت قابل توجهی را به همراه دارد. این نشان‌دهنده همکاری، شیوه‌های اخلاقی و تعهد به جامعه گسترده‌تر است که می‌تواند کاربران، توسعه‌دهندگان و مطبوعات مثبت را جذب کند.
  2. ساخت اکوسیستم: انتشار وزن‌های مدل، حتی بدون شفافیت کامل، توسعه‌دهندگان را تشویق می‌کند تا برنامه‌های کاربردی را بر روی سیستم هوش مصنوعی بسازند و به طور بالقوه یک اکوسیستم وابسته ایجاد کنند که به نفع شرکت مبدأ باشد.
  3. آربیتراژ نظارتی: این یک محرک به ویژه نگران‌کننده است. مقررات آتی، مانند قانون هوش مصنوعی اتحادیه اروپا (2024) (European Union’s AI Act)، انتظار می‌رود الزامات سخت‌گیرانه‌تری را بر روی سیستم‌های هوش مصنوعی پرخطر خاص اعمال کنند. با این حال، معافیت‌ها یا بررسی‌های سبک‌تر اغلب برای ‘نرم‌افزار رایگان و متن‌باز’ پیشنهاد می‌شود. با اعمال برچسب ‘متن‌باز’ – حتی اگر طبق تعاریف تثبیت شده نادرست باشد – شرکت‌ها ممکن است امیدوار باشند که این مقررات را راحت‌تر طی کنند و از بارهای انطباق بالقوه پرهزینه مرتبط با سیستم‌های اختصاصی و پرخطر اجتناب کنند. این برچسب‌گذاری استراتژیک از یک شکاف بالقوه سوء استفاده می‌کند و هدف مقررات برای تضمین ایمنی و شفافیت را تضعیف می‌کند.

این عمل در نهایت ارزش اصطلاح ‘متن‌باز’ را کاهش می‌دهد و سردرگمی ایجاد می‌کند و تشخیص اینکه کدام سیستم‌های هوش مصنوعی واقعاً شفافیت و آزادی‌هایی را که این برچسب دلالت دارد ارائه می‌دهند، برای کاربران، توسعه‌دهندگان و محققان دشوارتر می‌کند.

چرا باز بودن واقعی برای علم فوراً اهمیت دارد

برای جامعه علمی، مخاطرات در این بحث به طور استثنایی بالا است. علم بر شفافیت، تکرارپذیری و توانایی تأیید مستقل شکوفا می‌شود. ادغام فزاینده هوش مصنوعی در تحقیقات – از تجزیه و تحلیل داده‌های ژنومی و مدل‌سازی تغییرات آب و هوایی گرفته تا کشف مواد جدید و درک سیستم‌های بیولوژیکی پیچیده – ماهیت این ابزارهای هوش مصنوعی را به طور حیاتی مهم می‌کند. اتکا به سیستم‌های هوش مصنوعی ‘جعبه سیاه’، یا آن‌هایی که بدون ارائه شفافیت واقعی به عنوان باز ظاهر می‌شوند، خطرات عمیقی را به همراه دارد:

  • تضعیف تکرارپذیری: اگر محققان نتوانند به داده‌های آموزشی و روش‌شناسی پشت یک مدل هوش مصنوعی مورد استفاده در یک مطالعه دسترسی داشته باشند یا آن را درک کنند، تکرار نتایج غیرممکن می‌شود. این اساساً یک ستون اصلی روش علمی را تضعیف می‌کند. چگونه می‌توان به یافته‌ها اعتماد کرد یا بر اساس آن‌ها بنا کرد اگر نتوان آن‌ها را به طور مستقل تأیید کرد؟
  • سوگیری‌ها و محدودیت‌های پنهان: همه مدل‌های هوش مصنوعی سوگیری‌ها را از داده‌های آموزشی و انتخاب‌های طراحی خود به ارث می‌برند. بدون شفافیت، محققان نمی‌توانند به اندازه کافی این سوگیری‌ها را ارزیابی کنند یا محدودیت‌های مدل را درک کنند. استفاده ناآگاهانه از یک مدل مغرضانه می‌تواند منجر به نتایج تحریف شده، نتیجه‌گیری‌های ناقص و پیامدهای بالقوه مضر در دنیای واقعی شود، به ویژه در زمینه‌های حساس مانند تحقیقات پزشکی یا علوم اجتماعی.
  • فقدان بررسی دقیق: مدل‌های غیرشفاف از بررسی دقیق همتا فرار می‌کنند. جامعه علمی نمی‌تواند به طور کامل عملکرد درونی مدل را مورد بازجویی قرار دهد، خطاهای احتمالی در منطق آن را شناسایی کند یا عدم قطعیت‌های مرتبط با پیش‌بینی‌های آن را درک کند. این امر ماهیت خوداصلاح‌گر تحقیق علمی را مختل می‌کند.
  • وابستگی به سیستم‌های شرکتی: اتکا به سیستم‌های هوش مصنوعی بسته یا نیمه‌بسته که توسط شرکت‌ها کنترل می‌شوند، وابستگی ایجاد می‌کند. برنامه‌های تحقیقاتی می‌توانند به طور نامحسوس تحت تأثیر قابلیت‌ها و محدودیت‌های ابزارهای شرکتی موجود قرار گیرند و دسترسی می‌تواند محدود یا پرهزینه شود و به طور بالقوه مسیرهای تحقیقاتی مستقل را خفه کرده و شکاف بین مؤسسات با بودجه خوب و دیگران را گسترش دهد.
  • خفه شدن نوآوری: متن‌باز واقعی به محققان اجازه می‌دهد نه تنها از ابزارها استفاده کنند، بلکه آن‌ها را کالبدشکافی، اصلاح، بهبود و استفاده مجدد کنند. اگر مؤلفه‌های کلیدی مدل‌های هوش مصنوعی غیرقابل دسترس باقی بمانند، این مسیر حیاتی برای نوآوری مسدود می‌شود. دانشمندان از آزمایش تکنیک‌های آموزشی جدید، کاوش در ترکیب‌های مختلف داده‌ها، یا تطبیق مدل‌ها برای سؤالات تحقیقاتی خاص و ظریفی که توسعه‌دهندگان اصلی پیش‌بینی نکرده بودند، منع می‌شوند.

جامعه علمی نمی‌تواند منفعلانه رقیق شدن اصطلاح ‘متن‌باز’ را بپذیرد. باید فعالانه از شفافیت دفاع کند و شفافیت واقعی را از توسعه‌دهندگان هوش مصنوعی، به ویژه هنگامی که این ابزارها در زمینه‌های تحقیقاتی به کار گرفته می‌شوند، مطالبه کند. این شامل موارد زیر است:

  • ترویج استانداردهای روشن: حمایت از تلاش‌ها، مانند تلاش‌های OSI، برای ایجاد تعاریف روشن و دقیق برای آنچه ‘هوش مصنوعی متن‌باز’ را تشکیل می‌دهد، تعاریفی که شفافیت در مورد معماری، وزن‌ها، داده‌های آموزشی و فرآیندهای آموزش را در بر می‌گیرد.
  • اولویت‌بندی ابزارهای قابل تأیید: ترجیح استفاده از مدل‌ها و پلتفرم‌های هوش مصنوعی که این استانداردهای بالای شفافیت را برآورده می‌کنند، حتی اگر در ابتدا عملکرد کمتری داشته باشند یا نسبت به جایگزین‌های غیرشفاف به راحتی در دسترس، به تلاش بیشتری نیاز داشته باشند.
  • مطالبه شفافیت: اصرار بر اینکه انتشارات مربوط به هوش مصنوعی شامل افشای دقیق در مورد مدل‌های مورد استفاده، از جمله اطلاعات جامع در مورد منشأ داده‌های آموزشی، پردازش و سوگیری‌های بالقوه، و همچنین روش‌شناسی‌های آموزش باشد.
  • حمایت از پروژه‌های واقعاً باز: مشارکت و استفاده از پروژه‌های جامعه‌محور و ابتکارات مؤسساتی که به باز بودن واقعی در توسعه هوش مصنوعی متعهد هستند.

روح Homebrew Computer Club – روح دانش مشترک و ساخت مشارکتی – برای پیمایش مسئولانه پیچیدگی‌های عصر هوش مصنوعی ضروری است. بازپس‌گیری و دفاع از معنای واقعی ‘متن‌باز’ برای هوش مصنوعی فقط مربوط به خلوص اصطلاحی نیست؛ بلکه مربوط به حفاظت از یکپارچگی، تکرارپذیری و پیشرفت مستمر خود علم در دنیایی است که به طور فزاینده‌ای توسط هوش مصنوعی هدایت می‌شود. مسیر پیش رو نیازمند هوشیاری و تعهد جمعی برای اطمینان از این است که ابزارهای قدرتمند هوش مصنوعی به شیوه‌ای سازگار با اصول تحقیق باز که قرن‌ها به خوبی به علم خدمت کرده‌اند، توسعه و به کار گرفته شوند.