اصطلاح ‘متنباز’ (open source) در دنیای فناوری طنین قدرتمندی دارد. این اصطلاح تصاویری از نوآوری مشارکتی، دانش مشترک و باوری بنیادین به شفافیت را تداعی میکند. این روحیه نیم قرن پیش با تشکیل Homebrew Computer Club در Menlo Park، کالیفرنیا به وضوح تجسم یافت. این جمع از علاقهمندان و تعمیرکاران فقط ماشین نمیساختند؛ آنها فرهنگی را بنا نهادند که بر تبادل آزادانه ایدهها و نرمافزار استوار بود و سنگ بنای جنبش متنباز را گذاشتند که محاسبات را متحول کرد. با این حال، امروزه، این میراث به سختی به دست آمده و خود تعریف باز بودن با چالشی ظریف اما مهم روبرو است، به ویژه در حوزه به سرعت در حال گسترش هوش مصنوعی. تعداد فزایندهای از شرکتهایی که مدلهای پیچیده هوش مصنوعی را توسعه میدهند، مشتاقانه ساختههای خود را ‘متنباز’ مینامند، اما نگاهی دقیقتر نشان میدهد که این برچسب اغلب به صورت سطحی به کار میرود و واقعیتی را پنهان میکند که از اصول اصلی این جنبش کوتاه میآید. این رقیق شدن معنا صرفاً یک بحث معنایی نیست؛ بلکه تهدیدی واقعی برای اصول شفافیت و تکرارپذیری است که به ویژه در جامعه علمی از اهمیت بالایی برخوردارند.
درک روح واقعی همکاری باز
برای درک وضعیت فعلی، ابتدا باید قدردان معنای واقعی ‘متنباز’ بود. این فراتر از نرمافزار رایگان است؛ فلسفهای است که ریشه در پیشرفت جمعی و اعتماد قابل تأیید دارد. سنگ بنای این فلسفه بر چهار آزادی اساسی استوار است:
- آزادی اجرای برنامه برای هر هدفی.
- آزادی مطالعه نحوه کار برنامه و تغییر آن به گونهای که محاسبات شما را آنطور که میخواهید انجام دهد. دسترسی به کد منبع پیششرط این امر است.
- آزادی توزیع مجدد نسخهها تا بتوانید به دیگران کمک کنید.
- آزادی توزیع نسخههای اصلاح شده خود به دیگران. با انجام این کار میتوانید به کل جامعه فرصت دهید تا از تغییرات شما بهرهمند شوند. دسترسی به کد منبع پیششرط این امر است.
این آزادیها، که معمولاً در مجوزهایی مانند GNU General Public License (GPL)، MIT License یا Apache License گنجانده شدهاند، از لحاظ تاریخی بر کد منبع (source code) متمرکز بودهاند. کد منبع – دستورالعملهای قابل خواندن توسط انسان که توسط برنامهنویسان نوشته شدهاند – طرح اولیه نرمافزار سنتی است. در دسترس قرار دادن این کد به صورت باز به هر کسی اجازه میدهد تا آن را بررسی کند، منطق آن را بفهمد، نقصهای احتمالی را شناسایی کند، آن را با نیازهای جدید تطبیق دهد و آن بهبودها را به اشتراک بگذارد.
این مدل کاتالیزور فوقالعادهای برای نوآوری و پیشرفت علمی بوده است. تأثیر ابزارهایی را که به راحتی در دسترس محققان در سراسر جهان قرار دارند، در نظر بگیرید:
- تحلیل آماری: نرمافزاری مانند R Studio یک محیط قدرتمند، شفاف و قابل توسعه برای محاسبات آماری و گرافیک فراهم میکند و به سنگ بنای تجزیه و تحلیل دادهها در زمینههای علمی بیشماری تبدیل شده است. باز بودن آن امکان بررسی همتا روشها و توسعه بستههای تخصصی را فراهم میکند.
- دینامیک سیالات محاسباتی: OpenFOAM کتابخانه پیچیدهای برای شبیهسازی جریان سیالات ارائه میدهد که در زمینههایی از مهندسی هوافضا گرفته تا علوم محیطی حیاتی است. ماهیت باز آن امکان سفارشیسازی و تأیید شبیهسازیهای پیچیده را فراهم میکند.
- سیستمهای عامل: Linux و سایر سیستمعاملهای متنباز ستون فقرات بسیاری از زیرساختهای محاسباتی جهان، از جمله خوشههای محاسباتی با کارایی بالا علمی را تشکیل میدهند که به دلیل پایداری، انعطافپذیری و شفافیت خود ارزشمند هستند.
مزایا بسیار فراتر از صرفهجویی در هزینه است. متنباز تکرارپذیری (reproducibility) را تقویت میکند که سنگ بنای روش علمی است. هنگامی که ابزارها و کدهای مورد استفاده در تحقیق باز هستند، دانشمندان دیگر میتوانند آزمایشها را تکرار کنند، یافتهها را تأیید کنند و با اطمینان بر روی کار بنا کنند. این امر همکاری جهانی را ترویج میکند، موانع را از بین میبرد و به محققان از پیشینهها و مؤسسات مختلف اجازه میدهد تا در چالشهای مشترک مشارکت کنند. این امر طول عمر و جلوگیری از وابستگی به فروشنده (vendor lock-in) را تضمین میکند و سرمایهگذاریهای تحقیقاتی را از هوسهای شرکتهای نرمافزاری اختصاصی محافظت میکند. با اجازه دادن به انتشار سریع و تکرار ایدهها و تکنیکهای جدید، کشف را تسریع میکند. اخلاق متنباز اساساً با پیگیری علمی دانش از طریق شفافیت، بررسی دقیق و پیشرفت مشترک همسو است.
هوش مصنوعی: جانوری کاملاً متفاوت
پارادایم تثبیت شده متنباز، که به طور ایمن حول دسترسی به کد منبع ساخته شده است، هنگام اعمال در حوزه هوش مصنوعی، به ویژه مدلهای مقیاس بزرگ مانند مدلهای زبان بزرگ (LLMs) بنیادی، با تلاطم قابل توجهی روبرو میشود. در حالی که این سیستمهای هوش مصنوعی قطعاً شامل کد هستند، عملکرد و رفتار آنها توسط عناصر بسیار پیچیدهتر و اغلب غیرشفاف شکل میگیرد. صرفاً انتشار کد معماری برای یک شبکه عصبی با باز بودن واقعی به همان شکلی که برای نرمافزار سنتی صدق میکند، برابر نیست.
یک مدل هوش مصنوعی، به ویژه یک مدل یادگیری عمیق، معمولاً از چندین مؤلفه کلیدی تشکیل شده است:
- معماری مدل (Model Architecture): این طراحی ساختاری شبکه عصبی است – آرایش لایهها، نورونها و اتصالات. شرکتها اغلب این اطلاعات را منتشر میکنند و آن را به عنوان مدرکی دال بر باز بودن ارائه میدهند. این شبیه به اشتراکگذاری طرح اولیه یک موتور است.
- وزنهای مدل (پارامترها) (Model Weights/Parameters): اینها مقادیر عددی، اغلب میلیاردها عدد، در داخل شبکه هستند که در طول فرآیند آموزش تنظیم شدهاند. آنها الگوهای آموخته شده و دانش استخراج شده از دادههای آموزشی را نشان میدهند. انتشار وزنها به دیگران اجازه میدهد تا از مدل از پیش آموزش دیده استفاده کنند. این مانند ارائه موتور کاملاً مونتاژ شده و آماده به کار است.
- دادههای آموزشی (Training Data): این شاید حیاتیترین و اغلب پنهانترین مؤلفه باشد. مدلهای بنیادی بر روی مجموعه دادههای عظیمی آموزش داده میشوند که اغلب از اینترنت جمعآوری شده یا از مجموعههای اختصاصی یا خصوصی (مانند سوابق پزشکی که نگرانیهای قابل توجهی در مورد حریم خصوصی ایجاد میکنند) تهیه میشوند. ترکیب، سرپرستی، فیلتر کردن و سوگیریهای بالقوه در این دادهها عمیقاً بر قابلیتها، محدودیتها و رفتار اخلاقی مدل تأثیر میگذارد. بدون اطلاعات دقیق در مورد دادههای آموزشی، درک چرا یک مدل به شیوهای خاص رفتار میکند، یا ارزیابی مناسب بودن و ایمنی آن برای کاربردهای خاص، فوقالعاده دشوار میشود. این مخلوط سوخت مخفی و شرایط دقیقی است که موتور تحت آن آببندی شده است.
- کد و فرآیند آموزش (Training Code and Process): این شامل الگوریتمهای خاص مورد استفاده برای آموزش، تکنیکهای بهینهسازی، ابرپارامترهای انتخاب شده (تنظیماتی که فرآیند یادگیری را کنترل میکنند)، زیرساخت محاسباتی به کار گرفته شده و انرژی قابل توجه مصرف شده است. تغییرات جزئی در فرآیند آموزش میتواند منجر به رفتارهای متفاوت مدل شود و تکرارپذیری را حتی اگر معماری و دادهها مشخص باشند، چالشبرانگیز میکند. این نشاندهنده مشخصات مهندسی دقیق، ابزارآلات و شرایط کارخانهای است که برای ساخت و تنظیم موتور استفاده شده است.
بسیاری از سیستمهایی که در حال حاضر به عنوان هوش مصنوعی ‘متنباز’ به بازار عرضه میشوند، عمدتاً دسترسی به معماری مدل و وزنهای از پیش آموزش دیده را ارائه میدهند. در حالی که این به کاربران اجازه میدهد مدل را اجرا کنند و شاید آن را بر روی مجموعه دادههای کوچکتر تنظیم دقیق (fine-tune) کنند، به طور حیاتی شفافیت لازم در مورد دادهها و فرآیند آموزش را فراهم نمیکند. این به شدت توانایی مطالعه واقعی ویژگیهای بنیادی مدل یا اصلاح آن به روشهای عمیقاً معنادار را که نیازمند آموزش مجدد یا درک ریشههای آن است، محدود میکند. آزادیهای مطالعه و اصلاح، که برای تعریف متنباز مرکزی هستند، هنگامی که عناصر حیاتی دادهها و روششناسی آموزش پنهان میمانند، به طور قابل توجهی مختل میشوند. تکرار ایجاد مدل از ابتدا – یک آزمون کلیدی برای درک و تأیید علمی – عملاً غیرممکن میشود.
روند نگرانکننده ‘بازنمایی’ (Openwashing) در هوش مصنوعی
این شکاف بین برچسب و واقعیت باعث ایجاد عملی به نام ‘بازنمایی’ (openwashing) شده است. این اصطلاح عمل شرکتهایی را توصیف میکند که از شهرت مثبت و مزایای درک شده ‘متنباز’ برای بازاریابی و مزیت استراتژیک استفاده میکنند، در حالی که همزمان دسترسی به مؤلفههای حیاتی مانند اطلاعات دقیق دادههای آموزشی یا کد مورد استفاده برای خود آموزش را دریغ میکنند. آنها سیستمهای خود را در زبان باز بودن میپوشانند بدون اینکه اصول سختگیرانه شفافیت و دسترسی جامعه را به طور کامل بپذیرند.
چندین مدل برجسته هوش مصنوعی، علیرغم استفاده گسترده و گاهی اوقات داشتن نام ‘باز’، هنگامی که با تعریف جامع متنباز که توسط سازمانهایی مانند Open Source Initiative (OSI) حمایت میشود، سنجیده میشوند، کوتاه میآیند. تحلیلی توسط OSI، که از سال 2022 با جدیت برای روشن کردن معنای متنباز در زمینه هوش مصنوعی تلاش کرده است، نگرانیهایی را در مورد چندین مدل محبوب برجسته کرد:
- Llama 2 & Llama 3.x (Meta): در حالی که وزنها و معماری مدل در دسترس هستند، محدودیتهای استفاده و شفافیت ناقص در مورد مجموعه داده کامل آموزشی و فرآیند، همسویی آنها را با ارزشهای سنتی متنباز محدود میکند.
- Grok (X): به طور مشابه، در حالی که در دسترس قرار گرفته است، فقدان اطلاعات جامع در مورد دادههای آموزشی و روششناسی آن، سؤالاتی را در مورد باز بودن واقعی آن ایجاد میکند.
- Phi-2 (Microsoft): اغلب به عنوان یک ‘مدل باز’ توصیف میشود، اما شفافیت کامل در مورد فرآیند ایجاد و دادههای آن محدود باقی میماند.
- Mixtral (Mistral AI): اگرچه بخشهایی منتشر شده است، اما به دلیل محدودیت در دسترسی به تمام مؤلفههای لازم برای مطالعه و اصلاح، معیارهای کامل متنباز را برآورده نمیکند.
این مثالها در تضاد با تلاشهایی هستند که برای پایبندی بیشتر به اصول متنباز تلاش میکنند:
- OLMo (Allen Institute for AI): OLMo که توسط یک مؤسسه تحقیقاتی غیرانتفاعی توسعه یافته است، به صراحت با در نظر گرفتن باز بودن طراحی شده است و نه تنها وزنها بلکه کد آموزش و جزئیات مربوط به دادههای مورد استفاده را نیز منتشر میکند.
- LLM360’s CrystalCoder: یک پروژه جامعهمحور با هدف شفافیت کامل در سراسر چرخه عمر مدل، از جمله دادهها، رویههای آموزش و معیارهای ارزیابی.
چرا درگیر بازنمایی شویم؟ انگیزهها چند وجهی هستند:
- بازاریابی و ادراک: برچسب ‘متنباز’ حسن نیت قابل توجهی را به همراه دارد. این نشاندهنده همکاری، شیوههای اخلاقی و تعهد به جامعه گستردهتر است که میتواند کاربران، توسعهدهندگان و مطبوعات مثبت را جذب کند.
- ساخت اکوسیستم: انتشار وزنهای مدل، حتی بدون شفافیت کامل، توسعهدهندگان را تشویق میکند تا برنامههای کاربردی را بر روی سیستم هوش مصنوعی بسازند و به طور بالقوه یک اکوسیستم وابسته ایجاد کنند که به نفع شرکت مبدأ باشد.
- آربیتراژ نظارتی: این یک محرک به ویژه نگرانکننده است. مقررات آتی، مانند قانون هوش مصنوعی اتحادیه اروپا (2024) (European Union’s AI Act)، انتظار میرود الزامات سختگیرانهتری را بر روی سیستمهای هوش مصنوعی پرخطر خاص اعمال کنند. با این حال، معافیتها یا بررسیهای سبکتر اغلب برای ‘نرمافزار رایگان و متنباز’ پیشنهاد میشود. با اعمال برچسب ‘متنباز’ – حتی اگر طبق تعاریف تثبیت شده نادرست باشد – شرکتها ممکن است امیدوار باشند که این مقررات را راحتتر طی کنند و از بارهای انطباق بالقوه پرهزینه مرتبط با سیستمهای اختصاصی و پرخطر اجتناب کنند. این برچسبگذاری استراتژیک از یک شکاف بالقوه سوء استفاده میکند و هدف مقررات برای تضمین ایمنی و شفافیت را تضعیف میکند.
این عمل در نهایت ارزش اصطلاح ‘متنباز’ را کاهش میدهد و سردرگمی ایجاد میکند و تشخیص اینکه کدام سیستمهای هوش مصنوعی واقعاً شفافیت و آزادیهایی را که این برچسب دلالت دارد ارائه میدهند، برای کاربران، توسعهدهندگان و محققان دشوارتر میکند.
چرا باز بودن واقعی برای علم فوراً اهمیت دارد
برای جامعه علمی، مخاطرات در این بحث به طور استثنایی بالا است. علم بر شفافیت، تکرارپذیری و توانایی تأیید مستقل شکوفا میشود. ادغام فزاینده هوش مصنوعی در تحقیقات – از تجزیه و تحلیل دادههای ژنومی و مدلسازی تغییرات آب و هوایی گرفته تا کشف مواد جدید و درک سیستمهای بیولوژیکی پیچیده – ماهیت این ابزارهای هوش مصنوعی را به طور حیاتی مهم میکند. اتکا به سیستمهای هوش مصنوعی ‘جعبه سیاه’، یا آنهایی که بدون ارائه شفافیت واقعی به عنوان باز ظاهر میشوند، خطرات عمیقی را به همراه دارد:
- تضعیف تکرارپذیری: اگر محققان نتوانند به دادههای آموزشی و روششناسی پشت یک مدل هوش مصنوعی مورد استفاده در یک مطالعه دسترسی داشته باشند یا آن را درک کنند، تکرار نتایج غیرممکن میشود. این اساساً یک ستون اصلی روش علمی را تضعیف میکند. چگونه میتوان به یافتهها اعتماد کرد یا بر اساس آنها بنا کرد اگر نتوان آنها را به طور مستقل تأیید کرد؟
- سوگیریها و محدودیتهای پنهان: همه مدلهای هوش مصنوعی سوگیریها را از دادههای آموزشی و انتخابهای طراحی خود به ارث میبرند. بدون شفافیت، محققان نمیتوانند به اندازه کافی این سوگیریها را ارزیابی کنند یا محدودیتهای مدل را درک کنند. استفاده ناآگاهانه از یک مدل مغرضانه میتواند منجر به نتایج تحریف شده، نتیجهگیریهای ناقص و پیامدهای بالقوه مضر در دنیای واقعی شود، به ویژه در زمینههای حساس مانند تحقیقات پزشکی یا علوم اجتماعی.
- فقدان بررسی دقیق: مدلهای غیرشفاف از بررسی دقیق همتا فرار میکنند. جامعه علمی نمیتواند به طور کامل عملکرد درونی مدل را مورد بازجویی قرار دهد، خطاهای احتمالی در منطق آن را شناسایی کند یا عدم قطعیتهای مرتبط با پیشبینیهای آن را درک کند. این امر ماهیت خوداصلاحگر تحقیق علمی را مختل میکند.
- وابستگی به سیستمهای شرکتی: اتکا به سیستمهای هوش مصنوعی بسته یا نیمهبسته که توسط شرکتها کنترل میشوند، وابستگی ایجاد میکند. برنامههای تحقیقاتی میتوانند به طور نامحسوس تحت تأثیر قابلیتها و محدودیتهای ابزارهای شرکتی موجود قرار گیرند و دسترسی میتواند محدود یا پرهزینه شود و به طور بالقوه مسیرهای تحقیقاتی مستقل را خفه کرده و شکاف بین مؤسسات با بودجه خوب و دیگران را گسترش دهد.
- خفه شدن نوآوری: متنباز واقعی به محققان اجازه میدهد نه تنها از ابزارها استفاده کنند، بلکه آنها را کالبدشکافی، اصلاح، بهبود و استفاده مجدد کنند. اگر مؤلفههای کلیدی مدلهای هوش مصنوعی غیرقابل دسترس باقی بمانند، این مسیر حیاتی برای نوآوری مسدود میشود. دانشمندان از آزمایش تکنیکهای آموزشی جدید، کاوش در ترکیبهای مختلف دادهها، یا تطبیق مدلها برای سؤالات تحقیقاتی خاص و ظریفی که توسعهدهندگان اصلی پیشبینی نکرده بودند، منع میشوند.
جامعه علمی نمیتواند منفعلانه رقیق شدن اصطلاح ‘متنباز’ را بپذیرد. باید فعالانه از شفافیت دفاع کند و شفافیت واقعی را از توسعهدهندگان هوش مصنوعی، به ویژه هنگامی که این ابزارها در زمینههای تحقیقاتی به کار گرفته میشوند، مطالبه کند. این شامل موارد زیر است:
- ترویج استانداردهای روشن: حمایت از تلاشها، مانند تلاشهای OSI، برای ایجاد تعاریف روشن و دقیق برای آنچه ‘هوش مصنوعی متنباز’ را تشکیل میدهد، تعاریفی که شفافیت در مورد معماری، وزنها، دادههای آموزشی و فرآیندهای آموزش را در بر میگیرد.
- اولویتبندی ابزارهای قابل تأیید: ترجیح استفاده از مدلها و پلتفرمهای هوش مصنوعی که این استانداردهای بالای شفافیت را برآورده میکنند، حتی اگر در ابتدا عملکرد کمتری داشته باشند یا نسبت به جایگزینهای غیرشفاف به راحتی در دسترس، به تلاش بیشتری نیاز داشته باشند.
- مطالبه شفافیت: اصرار بر اینکه انتشارات مربوط به هوش مصنوعی شامل افشای دقیق در مورد مدلهای مورد استفاده، از جمله اطلاعات جامع در مورد منشأ دادههای آموزشی، پردازش و سوگیریهای بالقوه، و همچنین روششناسیهای آموزش باشد.
- حمایت از پروژههای واقعاً باز: مشارکت و استفاده از پروژههای جامعهمحور و ابتکارات مؤسساتی که به باز بودن واقعی در توسعه هوش مصنوعی متعهد هستند.
روح Homebrew Computer Club – روح دانش مشترک و ساخت مشارکتی – برای پیمایش مسئولانه پیچیدگیهای عصر هوش مصنوعی ضروری است. بازپسگیری و دفاع از معنای واقعی ‘متنباز’ برای هوش مصنوعی فقط مربوط به خلوص اصطلاحی نیست؛ بلکه مربوط به حفاظت از یکپارچگی، تکرارپذیری و پیشرفت مستمر خود علم در دنیایی است که به طور فزایندهای توسط هوش مصنوعی هدایت میشود. مسیر پیش رو نیازمند هوشیاری و تعهد جمعی برای اطمینان از این است که ابزارهای قدرتمند هوش مصنوعی به شیوهای سازگار با اصول تحقیق باز که قرنها به خوبی به علم خدمت کردهاند، توسعه و به کار گرفته شوند.