OpenAI، به رهبری سم آلتمن، با طرح دعوی متقابل علیه ایلان ماسک، کارآفرین میلیاردر، او را به استفاده از ‘تاکتیکهای بدخواهانه’ در تلاش برای جلوگیری از انتقال شرکت به یک نهاد انتفاعی متهم کرده است. OpenAI در پاسخ قانونی خود، به دنبال صدور دستور منع برای جلوگیری از اقدامات مخرب بیشتر ماسک است و از قاضی میخواهد که ماسک را در قبال خساراتی که قبلاً به سازمان وارد کرده است، پاسخگو کند.
این نبرد حقوقی از شکایت اولیه ماسک علیه OpenAI ناشی میشود، جایی که او ادعا کرد که این شرکت از مأموریت اصلی خود مبنی بر توسعه هوش مصنوعی (AI) به نفع عموم منحرف شده است. ماسک، که به همراه آلتمن یکی از بنیانگذاران OpenAI بود، ادعا میکند که تبدیل شرکت از یک ساختار غیرانتفاعی نقض توافق اولیه آنها است. دادگاه هیئت منصفه برای این پرونده قرار است در بهار سال 2026 آغاز شود و نوید یک رویارویی حقوقی طولانی بین این دو غول فناوری را میدهد.
اتهامات اقدامات مخرب ماسک
دادخواست متقابل OpenAI تصویری واضح از تلاشهای ادعایی ماسک برای تضعیف شرکت ارائه میدهد و ادعا میکند که او در یک سری اقدامات طراحی شده برای آسیب رساندن به شهرت آن و تصاحب کنترل عملیات آن شرکت داشته است. این اقدامات، طبق این دادخواست، شامل موارد زیر است:
- حملات رسانههای اجتماعی: OpenAI ادعا میکند که ماسک از حضور گسترده خود در رسانههای اجتماعی برای انجام حملات تحقیرآمیز علیه شرکت، انتشار اطلاعات نادرست و ایجاد تردید در مورد یکپارچگی آن استفاده کرده است.
- اقدامات حقوقی بیاساس: OpenAI علاوه بر دادخواست اولیه، ادعا میکند که ماسک سایر مراحل قانونی بیاساس را تنها با هدف آزار و اذیت شرکت و انحراف منابع آن آغاز کرده است.
- تلاشهای ناموفق برای تصاحب: شاید جسورانهترین اقدام ادعایی ماسک، تلاش ادعایی او برای تصاحب OpenAI از طریق یک ‘پیشنهاد تصاحب جعلی’ بود. بر اساس این دادخواست، ماسک 97.4 میلیارد دلار برای تصاحب شرکت پیشنهاد داد، پیشنهادی که هیئت مدیره OpenAI به سرعت آن را رد کرد و آلتمن اعلام کرد که OpenAI برای فروش نیست.
ادعاهای حسادت و انتقام شخصی
دادخواست OpenAI فراتر از اتهامات مربوط به اقدامات مخرب، به انگیزههای ماسک میپردازد و نشان میدهد که خصومت او نسبت به این شرکت ناشی از حسادت و انتقام شخصی است. این دادخواست ادعا میکند که ماسک به موفقیت OpenAI حسادت میکند، بهویژه با توجه به اینکه او زمانی یکی از بنیانگذاران این شرکت بود اما بعداً آن را ترک کرد تا به دنبال سرمایهگذاریهای هوش مصنوعی خود برود.
به گفته OpenAI، ماسک اکنون در مأموریتی است تا ‘OpenAI را از بین ببرد’ و همزمان با ایجاد یک رقیب قدرتمند در قالب xAI، شرکت هوش مصنوعی خود، به دنبال منافع شخصی خود است، نه نگرانی واقعی برای بهبود بشریت، همانطور که او ادعا میکند.
بررسی عمیقتر درگیری OpenAI-ماسک
درگیری قانونی بین OpenAI و ایلان ماسک صرفاً یک اختلاف شرکتی نیست. این نشاندهنده یک واگرایی اساسی در فلسفهها در مورد توسعه و استقرار هوش مصنوعی است. برای درک کامل پیچیدگیهای این درگیری، ضروری است که به زمینه تاریخی، انگیزههای اساسی و پیامدهای بالقوه برای آینده هوش مصنوعی بپردازیم.
زمینه تاریخی: پیدایش OpenAI
OpenAI در سال 2015 به عنوان یک شرکت تحقیقاتی غیرانتفاعی هوش مصنوعی با هدف اعلام شده توسعه هوش مصنوعی که به نفع همه بشریت باشد، تأسیس شد. تیم مؤسس شامل چهرههای برجستهای مانند سم آلتمن، ایلان ماسک، گرگ براکمن، ایلیا سوتسکور و وویچ زارمبا بود. ماسک نقش مهمی در مراحل اولیه OpenAI ایفا کرد و حمایت مالی قابل توجهی ارائه کرد و فعالانه در جهتگیری استراتژیک شرکت مشارکت داشت.
دیدگاه اولیه برای OpenAI ایجاد یک پلتفرم هوش مصنوعی منبع باز بود که در دسترس محققان و توسعه دهندگان در سراسر جهان قرار گیرد، همکاری را تقویت کند و از تمرکز قدرت هوش مصنوعی در دست چند شرکت بزرگ جلوگیری کند. با این حال، با افزایش جاهطلبیهای OpenAI، روشن شد که ساختار غیرانتفاعی برای جذب استعداد و منابع لازم برای رقابت با شرکتهایی مانند گوگل و فیسبوک کافی نخواهد بود.
تغییر به مدل ‘سود محدود’
در سال 2019، OpenAI دستخوش یک تجدید ساختار قابل توجه شد و از یک غیرانتفاعی خالص به یک مدل ‘سود محدود’ تبدیل شد. این ساختار جدید به شرکت اجازه داد تا سرمایه را از سرمایهگذاران جمعآوری کند و در عین حال به مأموریت خود مبنی بر توسعه هوش مصنوعی به نفع بشریت پایبند باشد. تحت مدل سود محدود، سرمایهگذاران بازدهی سرمایهگذاری خود را دریافت میکنند، اما بازدهیها در یک ضریب معین محدود میشود و اطمینان حاصل میشود که تمرکز اصلی شرکت بر مأموریت آن باقی میماند تا حداکثر کردن سود.
با این حال، این انتقال بدون منتقد نبود. به ویژه ایلان ماسک، مخالفت شدیدی با مدل سود محدود ابراز کرد و استدلال کرد که این امر ناگزیر منجر به تضاد منافع بین مأموریت OpenAI و تعهدات مالی آن در قبال سرمایهگذارانش میشود. ماسک در نهایت روابط خود را با OpenAI قطع کرد و نگرانیهایی را در مورد جهتگیری شرکت و پتانسیل سوء استفاده از فناوری آن مطرح کرد.
نگرانیهای ماسک در مورد ایمنی هوش مصنوعی
ماسک مدتهاست که از مدافعان سرسخت ایمنی هوش مصنوعی بوده و در مورد خطرات احتمالی توسعه هوش مصنوعی که با ارزشهای انسانی همسو نیست، هشدار داده است. او استدلال کرده است که اگر هوش مصنوعی به طور مسئولانه توسعه و مستقر نشود، میتواند تهدیدی برای بقای بشریت باشد. این نگرانیها عامل اصلی تصمیم او برای ترک OpenAI و پیگیری ابتکارات هوش مصنوعی خود، از جمله تأسیس xAI بود.
ماسک معتقد است که کلید تضمین ایمنی هوش مصنوعی، حفظ یک رویکرد غیرمتمرکز و منبع باز است که امکان شفافیت و پاسخگویی بیشتر را فراهم میکند. او از OpenAI به دلیل اینکه به طور فزایندهای به منبع بسته و مخفی تبدیل شده است، انتقاد کرده و استدلال میکند که این امر ارزیابی ایمنی و پیامدهای اخلاقی فناوری آن را دشوارتر میکند.
دفاع OpenAI از اقدامات خود
OpenAI از انتقال خود به مدل سود محدود دفاع کرده و استدلال میکند که برای جذب استعداد و منابع مورد نیاز برای رقابت در چشمانداز هوش مصنوعی که به سرعت در حال تحول است، ضروری بود. این شرکت همچنین بر تعهد خود به ایمنی هوش مصنوعی تأکید کرده و به تلاشهای تحقیقاتی خود در زمینههایی مانند همسویی هوش مصنوعی و قابلیت تفسیر اشاره میکند.
OpenAI استدلال میکند که ساختار سود محدود آن تضمین میکند که انگیزههای مالی آن با مأموریتش همسو است و از اولویت دادن به سود بر رفاه بشریت جلوگیری میکند. این شرکت همچنین تاکید کرده است که علیرغم افزایش پیچیدگی فناوری خود، به شفافیت و همکاری متعهد است.
پیامدها برای آینده هوش مصنوعی
نبرد قانونی بین OpenAI و ایلان ماسک پیامدهای قابل توجهی برای آینده هوش مصنوعی دارد. نتیجه این اختلاف میتواند نحوه توسعه، استقرار و تنظیم هوش مصنوعی را برای سالهای آینده شکل دهد.
بحث بر سر هوش مصنوعی منبع باز در مقابل منبع بسته
یکی از مسائل اصلی در این درگیری، بحث بر سر هوش مصنوعی منبع باز در مقابل منبع بسته است. ماسک از یک رویکرد منبع باز حمایت میکند و استدلال میکند که این امر شفافیت و پاسخگویی را ترویج میکند، در حالی که OpenAI با استناد به نگرانیها در مورد امنیت و حفاظت از مالکیت معنوی، رویکرد منبع بستهتری را اتخاذ کرده است.
نتیجه این بحث میتواند تأثیر عمیقی بر آینده هوش مصنوعی داشته باشد. اگر هوش مصنوعی منبع باز غالب شود، میتواند منجر به همکاری و نوآوری بیشتر شود، اما همچنین میتواند کنترل توسعه و استقرار فناوری هوش مصنوعی را دشوارتر کند. اگر هوش مصنوعی منبع بسته به مدل غالب تبدیل شود، میتواند منجر به تمرکز بیشتر قدرت هوش مصنوعی در دست چند شرکت بزرگ شود و به طور بالقوه نابرابریهای موجود را تشدید کند.
نقش تنظیم در توسعه هوش مصنوعی
یکی دیگر از مسائل مهمی که در این درگیری مطرح میشود، نقش تنظیم در توسعه هوش مصنوعی است. ماسک خواستار نظارت بیشتر دولت بر هوش مصنوعی شده و استدلال میکند که برای جلوگیری از سوء استفاده از این فناوری ضروری است. از سوی دیگر، OpenAI نگرانیهایی را در مورد مقررات بیش از حد محدودکننده ابراز کرده و استدلال میکند که این امر میتواند نوآوری را خفه کند.
احتمالاً بحث بر سر مقررات هوش مصنوعی در سالهای آینده تشدید خواهد شد، زیرا فناوری هوش مصنوعی قدرتمندتر و فراگیرتر میشود. ایجاد تعادل مناسب بین ترویج نوآوری و محافظت از جامعه در برابر خطرات احتمالی هوش مصنوعی، چالش بزرگی برای سیاستگذاران در سراسر جهان خواهد بود.
پیامدهای اخلاقی هوش مصنوعی
در نهایت، درگیری OpenAI-ماسک پیامدهای اخلاقی هوش مصنوعی را برجسته میکند. با پیچیدهتر شدن فناوری هوش مصنوعی، سوالات اخلاقی متعددی را در مورد موضوعاتی مانند سوگیری، حریم خصوصی و خودمختاری مطرح میکند.
ضروری است که به این نگرانیهای اخلاقی به طور فعال رسیدگی شود و اطمینان حاصل شود که هوش مصنوعی به گونهای توسعه و مستقر میشود که با ارزشهای انسانی سازگار باشد. این امر نیازمند یک تلاش مشترک با مشارکت محققان، سیاستگذاران و عموم مردم است.