ردپای رو به گسترش هوش مصنوعی چین
ظهور مدلهای هوش مصنوعی چینی، بهویژه DeepSeek R1، توجه توسعهدهندگان و سیاستگذاران آمریکایی را به خود جلب کرده است. گزارشهای ارسالی از سوی شرکتهای بزرگ هوش مصنوعی ایالات متحده به دولت، حاکی از پیچیدگی و رقابتپذیری روزافزون این مدلها است. OpenAI، یک شرکت تحقیقاتی پیشرو در زمینه هوش مصنوعی، صراحتاً اعلام کرده است که DeepSeek R1 نشاندهنده کاهش شکاف تکنولوژیکی بین ایالات متحده و چین است.
توسعه DeepSeek R1، که توسط دولت چین پشتیبانی میشود، نگرانیهایی را در مورد تأثیر بالقوه آن بر چشمانداز جهانی هوش مصنوعی ایجاد میکند. OpenAI شباهتهایی بین DeepSeek و Huawei، غول مخابراتی چینی، ترسیم کرده و نسبت به خطرات احتمالی مرتبط با مقررات چین هشدار داده است. این مقررات میتواند به دولت چین اجازه دسترسی به دادههای حساس را بدهد یا DeepSeek را مجبور به به خطر انداختن سیستمها و زیرساختهای ایالات متحده کند.
فراتر از DeepSeek، مدلهای Ernie X1 و Ernie 4.5 شرکت Baidu برای رقابت مستقیم با سیستمهای هوش مصنوعی غربی طراحی شدهاند. Baidu ادعا میکند که Ernie X1 عملکردی مشابه DeepSeek R1 را با نصف قیمت ارائه میدهد، در حالی که Ernie 4.5 با قیمتی معادل تنها 1% از GPT-4.5 شرکت OpenAI عرضه میشود، اما طبق گزارشها در چندین معیار از آن پیشی میگیرد.
استراتژیهای قیمتگذاری تهاجمی که توسط شرکتهای هوش مصنوعی چینی به کار گرفته میشود، موجهایی را در صنعت ایجاد میکند. Bernstein Research خاطرنشان میکند که مدلهای V3 و R1 شرکت DeepSeek به طور قابلتوجهی – 20 تا 40 برابر – ارزانتر از همتایان OpenAI خود هستند. این فشار قیمتگذاری میتواند توسعهدهندگان آمریکایی را مجبور به ارزیابی مجدد مدلهای کسبوکار خود برای حفظ رقابت کند.
تصمیم Baidu برای منبعباز کردن مدلهای خود، که با سری Ernie 4.5 شروع میشود، یک حرکت استراتژیک دیگر با هدف تسریع پذیرش و افزایش فشار رقابتی بر شرکتهای آمریکایی است. بازخورد اولیه کاربران در مورد مدلهای Baidu مثبت بوده است، که نشان میدهد پیشنهادات هوش مصنوعی چین از نظر هزینه و عملکرد به طور فزایندهای جذاب میشوند.
خطرات امنیتی و اقتصادی درک شده برای ایالات متحده
گزارشهای ارسالی از سوی شرکتهای هوش مصنوعی ایالات متحده همچنین بر خطرات درک شده برای امنیت ملی و اقتصاد ناشی از پیشرفتهای هوش مصنوعی چین تأکید میکند.
OpenAI نگرانیهایی را در مورد پتانسیل مقررات چین برای توانمندسازی دولت برای دستکاری مدلهای DeepSeek ابراز کرده است، که باعث ایجاد آسیبپذیری در زیرساختهای حیاتی و برنامههای کاربردی حساس میشود. این امر پتانسیل استفاده از هوش مصنوعی به عنوان سلاح و استفاده از آن برای اهداف مخرب را برجسته میکند.
Anthropic، یکی دیگر از شرکتهای برجسته هوش مصنوعی، بر خطرات امنیت زیستی تمرکز کرده است. این شرکت فاش کرد که مدل Claude 3.7 Sonnet خود قابلیتهایی در توسعه سلاحهای بیولوژیکی نشان داده است، که بر ماهیت دوگانه سیستمهای هوش مصنوعی تأکید میکند. این افشاگری بر لزوم توجه دقیق به پیامدهای اخلاقی و امنیتی هوش مصنوعی پیشرفته تأکید میکند.
Anthropic همچنین نگرانیهایی را در مورد کنترلهای صادراتی ایالات متحده بر تراشههای هوش مصنوعی مطرح کرد. در حالی که تراشههای H20 شرکت Nvidia با محدودیتهای صادراتی موجود مطابقت دارند، اما همچنان در تولید متن، که یک ویژگی حیاتی برای یادگیری تقویتی (reinforcement learning) است، عملکرد خوبی دارند. یادگیری تقویتی یک تکنیک کلیدی در آموزش هوش مصنوعی است. Anthropic از دولت خواسته است تا کنترلها را برای جلوگیری از دستیابی چین به مزیت تکنولوژیکی از طریق این تراشهها، تشدید کند.
Google، ضمن تأیید خطرات امنیتی، موضع محتاطانهتری اتخاذ کرده و نسبت به مقررات بیش از حد هشدار داده است. این شرکت استدلال میکند که قوانین صادراتی هوش مصنوعی بیش از حد سختگیرانه میتواند با محدود کردن فرصتهای تجاری برای ارائهدهندگان ابر داخلی، رقابتپذیری ایالات متحده را مختل کند. Google از کنترلهای صادراتی هدفمندی حمایت میکند که از امنیت ملی محافظت میکند بدون اینکه به طور بیموردی عملیات تجاری آن را مختل کند.
استراتژیهایی برای حفظ رقابتپذیری هوش مصنوعی ایالات متحده
سه شرکت هوش مصنوعی ایالات متحده – OpenAI، Anthropic و Google – بر نیاز حیاتی به نظارت بیشتر دولت و سرمایهگذاری در زیرساختها برای تضمین تداوم رهبری ایالات متحده در هوش مصنوعی تأکید کردهاند.
Anthropic افزایش قابلتوجهی در تقاضای انرژی برای توسعه هوش مصنوعی پیشبینی کرده است. این شرکت تخمین میزند که تا سال 2027، آموزش یک مدل هوش مصنوعی پیشرفته میتواند به 5 گیگاوات برق نیاز داشته باشد، که معادل مصرف انرژی یک شهر کوچک است. برای رسیدگی به این موضوع، Anthropic پیشنهاد میکند که یک هدف ملی برای ساخت 50 گیگاوات ظرفیت برق اختصاصی هوش مصنوعی تا سال 2027 و سادهسازی مقررات مربوط به زیرساختهای انتقال برق تعیین شود.
OpenAI رقابت بین هوش مصنوعی ایالات متحده و چین را به عنوان رقابتی بین مدلهای هوش مصنوعی دموکراتیک و اقتدارگرا توصیف میکند. این شرکت از رویکرد بازار آزاد حمایت میکند و استدلال میکند که این امر نتایج بهتری را تقویت میکند و برتری تکنولوژیکی آمریکا را حفظ میکند.
توصیههای Google بر اقدامات عملی، از جمله افزایش بودجه فدرال برای تحقیقات هوش مصنوعی، بهبود دسترسی به قراردادهای دولتی و سادهسازی کنترلهای صادراتی متمرکز است. این شرکت همچنین پیشنهاد میکند قوانین تدارکات انعطافپذیرتری برای تسریع پذیرش هوش مصنوعی توسط سازمانهای فدرال ارائه شود.
رویکردهای نظارتی پیشنهادی برای هوش مصنوعی ایالات متحده
شرکتهای هوش مصنوعی ایالات متحده خواستار یک رویکرد فدرال یکپارچه برای تنظیم هوش مصنوعی شدهاند، و اذعان دارند که پتانسیل مقررات پراکنده در سطح ایالتی میتواند مانع نوآوری شود و توسعه را به خارج از کشور سوق دهد.
OpenAI یک چارچوب نظارتی را پیشنهاد میکند که توسط وزارت بازرگانی نظارت شود. این چارچوب شامل یک سیستم کنترل صادراتی طبقهبندیشده است که امکان دسترسی گستردهتر به هوش مصنوعی توسعهیافته در ایالات متحده را در کشورهای دموکراتیک فراهم میکند و در عین حال دسترسی را در کشورهای اقتدارگرا محدود میکند.
Anthropic از کنترلهای صادراتی سختگیرانهتر بر سختافزار و دادههای آموزشی هوش مصنوعی حمایت میکند و تأکید میکند که حتی پیشرفتهای کوچک در عملکرد مدل میتواند به چین یک مزیت استراتژیک بدهد.
نگرانی اصلی Google مربوط به حقوق کپیرایت و مالکیت معنوی است. این شرکت بر اهمیت تفسیر خود از ‘استفاده منصفانه’ (fair use) برای توسعه هوش مصنوعی تأکید میکند و هشدار میدهد که قوانین کپیرایت بیش از حد محدودکننده میتواند شرکتهای هوش مصنوعی ایالات متحده را در مقایسه با همتایان چینی خود در موقعیت نامساعدی قرار دهد.
هر سه شرکت بر نیاز به تسریع پذیرش هوش مصنوعی توسط دولت تأکید میکنند. OpenAI حذف موانع موجود در آزمایش و تدارکات را توصیه میکند، در حالی که Anthropic از فرآیندهای تدارکات سادهشده حمایت میکند. Google بر نیاز به بهبود قابلیت همکاری در زیرساختهای ابر دولتی برای تسهیل ادغام یکپارچه راهحلهای هوش مصنوعی تأکید میکند.
بررسی دقیق نگرانیها و توصیهها
برای توضیح بیشتر در مورد نگرانیها و توصیههای ارائهشده، بیایید عمیقتر به جنبههای خاص بپردازیم:
1. شکاف تکنولوژیکی:
درک شکاف تکنولوژیکی در حال کاهش بین ایالات متحده و چین در هوش مصنوعی یک موضوع تکراری است. در حالی که شرکتهای آمریکایی از لحاظ تاریخی پیشتاز قابلتوجهی بودهاند، پیشرفت سریع شرکتهای چینی مانند DeepSeek و Baidu این تسلط را به چالش میکشد. این صرفاً در مورد وجود مدلهای هوش مصنوعی چینی نیست، بلکه در مورد کیفیت و مقرونبهصرفه بودن آنها است. توانایی این مدلها برای عملکردی مشابه یا حتی فراتر از همتایان غربی با کسری از قیمت، یک پیشرفت قابلتوجه است.
2. حمایت دولتی و رقابت ناعادلانه:
نقش دولت چین در حمایت از صنعت هوش مصنوعی خود یک نقطه اختلاف اصلی است. شرکتهای آمریکایی استدلال میکنند که یارانههای دولتی و سایر اشکال حمایت دولتی، یک زمین بازی ناهموار ایجاد میکنند. این امر نگرانیهایی را در مورد رقابت منصفانه و پتانسیل شرکتهای هوش مصنوعی چینی برای کسب مزیت ناعادلانه از طریق حمایت دولتی ایجاد میکند.
3. پیامدهای امنیتی:
نگرانیهای امنیتی مطرحشده چندوجهی هستند. آنها نه تنها شامل پتانسیل حملات سایبری مستقیم و جاسوسی میشوند، بلکه پیامدهای گستردهتر ماهیت دوگانه هوش مصنوعی را نیز در بر میگیرند. احتمال استفاده از هوش مصنوعی برای اهداف مخرب، مانند توسعه سلاحهای بیولوژیکی، یادآور خطرات مرتبط با این فناوری قدرتمند است. بنابراین، کنترل و تنظیم هوش مصنوعی به مسائل امنیت ملی تبدیل میشوند.
4. الزامات زیرساختی:
تقاضای فزاینده انرژی برای آموزش هوش مصنوعی یک چالش مهم است. پیشبینیهای Anthropic بر نیاز به سرمایهگذاریهای قابلتوجه در تولید برق و زیرساختهای انتقال برای حمایت از رشد مستمر صنعت هوش مصنوعی تأکید میکند. این فقط یک مسئله فنی نیست. این امر پیامدهایی برای سیاست انرژی، پایداری محیطزیست و رقابتپذیری کلی بخش هوش مصنوعی ایالات متحده دارد.
5. چارچوبهای نظارتی:
فراخوان برای یک رویکرد فدرال یکپارچه برای تنظیم هوش مصنوعی، پیچیدگی این موضوع را منعکس میکند. ایجاد تعادل بین نیاز به تقویت نوآوری و نیاز به کاهش خطرات، مستلزم یک چارچوب نظارتی دقیق است. این چارچوب باید به مسائلی مانند کنترلهای صادراتی، حقوق مالکیت معنوی، حریم خصوصی دادهها و پیامدهای اخلاقی هوش مصنوعی بپردازد. بحث در مورد سطح مناسب مقررات ادامه دارد و ذینفعان مختلف از رویکردهای متفاوتی حمایت میکنند.
6. پذیرش هوش مصنوعی توسط دولت:
تأکید بر پذیرش هوش مصنوعی توسط دولت، پتانسیل بخش دولتی را برای هدایت نوآوری و ایجاد تقاضا برای راهحلهای هوش مصنوعی برجسته میکند. سادهسازی فرآیندهای تدارکات و بهبود قابلیت همکاری در سیستمهای دولتی، گامهای مهمی برای تسهیل پذیرش گسترده هوش مصنوعی در سازمانهای دولتی است. این نه تنها میتواند خدمات دولتی را بهبود بخشد، بلکه یک بازار ارزشمند برای شرکتهای هوش مصنوعی ایالات متحده فراهم میکند.
7. اهمیت منبعباز:
استراتژی Baidu برای منبعباز کردن مدلهای خود، رویکرد متفاوتی را برای توسعه هوش مصنوعی ارائه میدهد. در حالی که شرکتهای آمریکایی بهطور سنتی بر مدلهای اختصاصی تمرکز کردهاند، جنبش منبعباز در حال افزایش است. منبعباز کردن میتواند نوآوری را تسریع کند، همکاری را تقویت کند و بهطور بالقوه زمین بازی را هموار کند. با این حال، سؤالاتی را در مورد کنترل، امنیت و پتانسیل سوءاستفاده ایجاد میکند.
8. نقش کنترلهای صادراتی:
بحث در مورد کنترلهای صادراتی تراشهها و فناوری هوش مصنوعی پیچیده است. ایجاد تعادل بین حفاظت از امنیت ملی و حفظ رقابتپذیری ایالات متحده یک وظیفه ظریف است. کنترلهای بیش از حد محدودکننده میتواند نوآوری را خفه کند و به شرکتهای آمریکایی آسیب برساند، در حالی که کنترلهای ضعیف میتواند به چین اجازه دهد تا یک مزیت تکنولوژیکی کسب کند. یافتن تعادل مناسب بسیار مهم است.
9. مالکیت معنوی و استفاده منصفانه:
موضوع حقوق مالکیت معنوی و ‘استفاده منصفانه’ برای توسعه مدلهای هوش مصنوعی محوری است. آموزش مدلهای هوش مصنوعی اغلب به مقادیر زیادی داده نیاز دارد که برخی از آنها ممکن است دارای کپیرایت باشند. تفسیر ‘استفاده منصفانه’ در این زمینه یک سؤال حقوقی و اخلاقی با پیامدهای قابلتوجه برای صنعت هوش مصنوعی است.
10. زمینه ژئوپلیتیک گستردهتر:
رقابت بین ایالات متحده و چین در هوش مصنوعی فقط در مورد فناوری نیست. این بخشی از یک رقابت ژئوپلیتیک گستردهتر است. هوش مصنوعی به عنوان یک فناوری استراتژیک کلیدی در نظر گرفته میشود که توازن قدرت آینده را شکل خواهد داد. نتیجه این رقابت پیامدهای گستردهای برای اقتصاد جهانی، امنیت و روابط بینالملل خواهد داشت. رقابت برای تسلط بر هوش مصنوعی، از بسیاری جهات، رقابت برای آینده است.