نگرانی‌ها از به‌کارگیری سریع DeepSeek AI در بیمارستان‌های چین

تیم تحقیقاتی چینی نگرانی‌های خود را نسبت به ادغام سریع DeepSeek، یک مدل هوش مصنوعی (AI)، در مراکز بیمارستانی ابراز داشته‌اند. پژوهش‌های آنها خطرات بالقوه‌ای را برای ایمنی بالینی و حریم خصوصی داده‌ها برجسته می‌کند، به ویژه به دلیل استفاده گسترده از مدل‌های منبع باز مقرون به صرفه این استارت‌آپ.

در اوایل ماه مارس، مدل‌های زبان بزرگ (LLM) DeepSeek، در دست‌کم 300 بیمارستان چینی برای تشخیص بالینی و پشتیبانی از تصمیم‌گیری پزشکی به کار گرفته شدند.

مقاله تحقیقاتی منتشر شده در Journal of the American Medical Association (JAMA)، تمایل DeepSeek به تولید خروجی‌هایی را نشان می‌دهد که به نظر قانع‌کننده می‌رسند اما از نظر واقعی نادرست هستند. علیرغم قابلیت‌های استدلال قوی هوش مصنوعی، این امر می‌تواند خطرات بالینی قابل توجهی ایجاد کند. وانگ تین ین، رئیس موسس تسینگ هوا مدیسین، یک بخش تحقیقاتی در دانشگاه تسینگ هوا در پکن، عضو تیم تحقیقاتی است.
این یادداشت هشدارآمیز با اشتیاق غالب به DeepSeek در چین در تضاد است. این استارت‌آپ، که به خاطر مدل‌های V3 و R1 مقرون به صرفه و با کارایی بالا مورد تحسین قرار می‌گیرد، اکنون به نمادی از پیشرفت‌های هوش مصنوعی چین تبدیل شده است.

ونگ و همکارانش بر این خطر تاکید کردند که متخصصان مراقبت‌های بهداشتی ممکن است بیش از حد به خروجی‌های DeepSeek وابسته شوند یا این خروجی‌ها را بدون ارزیابی انتقادی بپذیرند. این امر می‌تواند منجر به اشتباهات در تشخیص یا طرح‌های درمان مغرضانه شود. در مقابل، پزشکانی که محتاط باقی می‌مانند، با بار اضافی بررسی خروجی‌های هوش مصنوعی در شرایط محدودیت زمانی مواجه خواهند شد.

خطرات امنیتی در استقرار در محل

در حالی که بیمارستان‌ها اغلب استقرارهای خصوصی و در محل مدل‌های DeepSeek را برای کاهش خطرات مرتبط با امنیت و حریم خصوصی انتخاب می‌کنند، این رویکرد مجموعه پیچیدگی‌های خودش را به همراه دارد. به گفته محققان، این امر "مسئولیت‌های امنیتی را به تک تک مراکز مراقبت‌های بهداشتی منتقل می‌کند،" بسیاری از آنها ممکن است فاقد دفاع‌های سایبری لازم باشند.

محققان همچنین خاطرنشان کردند که ترکیب زیرساخت ناکافی مراقبت‌های اولیه و استفاده گسترده از تلفن‌های هوشمند در چین، یک "شرایط بحرانی" ایجاد می‌کند که نگرانی‌ها در مورد ایمنی بالینی را تشدید می‌کند.

محققان می‌گویند: "جمعیت‌های محروم با نیازهای پزشکی پیچیده اکنون دسترسی بی‌سابقه‌ای به توصیه‌های بهداشتی مبتنی بر هوش مصنوعی دارند، اما اغلب فاقد نظارت بالینی مورد نیاز برای اجرای ایمن این توصیه‌ها هستند."

بررسی دقیق LLMها در تنظیمات مراقبت‌های بهداشتی

این مقاله به گفتگوهای فزاینده در مورد استفاده از LLMها در تنظیمات بالینی و پزشکی کمک می‌کند. سازمان‌های دیگر در چین نیز با تسریع در پذیرش، شروع به بررسی دقیق LLMها کرده‌اند. مقاله دیگری که ماه گذشته توسط محققان دانشگاه چینی هنگ کنگ منتشر شد، آسیب‌پذیری‌های امنیت سایبری عوامل هوش مصنوعی را بررسی کرد و دریافت که عوامل تقویت شده توسط LLMهای رایج، در برابر حملات مختلف آسیب‌پذیر هستند، به طوری که DeepSeek-R1 بیشترین آسیب‌پذیری را داشت.

چین در بحبوحه افزایش فناوری‌های هوش مصنوعی مولد، پذیرش LLMها را در مراقبت‌های بهداشتی تسریع کرده است. ماه گذشته، گروه Ant Group، یک شرکت فناوری مالی چینی، نزدیک به 100 عامل پزشکی هوش مصنوعی را در اپلیکیشن پرداخت Alipay خود معرفی کرد. این عوامل توسط متخصصان پزشکی از بیمارستان‌های برجسته چینی پشتیبانی می‌شوند.

Tairex، یک استارت‌آپ مستقر در دانشگاه تسینگ هوا، آزمایش داخلی یک پلتفرم بیمارستان مجازی را در ماه نوامبر آغاز کرد. این پلتفرم دارای 42 پزشک هوش مصنوعی است که 21 بخش از جمله اورژانس، تنفسی، اطفال و قلب و عروق را پوشش می‌دهند. این شرکت برنامه‌های خود را برای راه‌اندازی این پلتفرم برای عموم در اواخر سال جاری فاش کرد.

بررسی عمیق‌تر نگرانی‌های پیرامون هوش مصنوعی در مراقبت‌های بهداشتی

ادغام سریع هوش مصنوعی، به ویژه مدل‌های زبان بزرگ (LLM) مانند DeepSeek، در تنظیمات مراقبت‌های بهداشتی در چین، بحثی را بین کسانی که از مزایای بالقوه آن دفاع می‌کنند و کسانی که خواستار احتیاط بیشتر هستند، برانگیخته است. در حالی که هوش مصنوعی امکانات هیجان انگیزی برای بهبود تشخیص، درمان و دسترسی به مراقبت ارائه می‌دهد، چندین عامل ایجاب می‌کند رویکرد سنجیده‌تری اتخاذ شود. نگرانی‌های مطرح شده توسط محققان، پیچیدگی‌ها و خطرات احتمالی استقرار هوش مصنوعی در چنین حوزه‌ای حیاتی را برجسته می‌کند.

یکی از نگرانی‌های اصلی، قابلیت اطمینان اطلاعات تولید شده توسط هوش مصنوعی است. LLMها بر روی مجموعه‌های داده عظیمی آموزش داده می‌شوند، اما این مجموعه‌های داده ممکن است حاوی تعصبات، نادرستی‌ها یا اطلاعات قدیمی باشند. در نتیجه، مدل‌های هوش مصنوعی گاهی اوقات می‌توانند خروجی‌هایی را تولید کنند که به نظر قابل قبول می‌رسند اما در واقع نادرست هستند. این امر خطر قابل توجهی را در تنظیمات پزشکی ایجاد می‌کند، جایی که اشتباهات تشخیصی یا توصیه‌های درمانی نادرست می‌تواند پیامدهای جدی برای بیماران داشته باشد.

خطر تکیه بیش از حد به هوش مصنوعی

نگرانی دیگر، پتانسیل متخصصان مراقبت‌های بهداشتی برای تکیه بیش از حد به هوش مصنوعی و از دست دادن مهارت‌های تفکر انتقادی آنها است. اگر پزشکان و پرستاران شروع به برخورد با خروجی‌های هوش مصنوعی به عنوان چیزی غیرقابل انکار کنند، ممکن است نتوانند شرایط بیماران را به طور کافی ارزیابی کنند، جزئیات مهم را نادیده بگیرند یا توصیه‌های هوش مصنوعی را زیر سوال ببرند. این می‌تواند منجر به اشتباهات تشخیصی، درمان‌های نامناسب و کاهش کیفیت مراقبت شود.

علاوه بر این، پذیرش گسترده هوش مصنوعی، سوالات اخلاقی و اجتماعی در مورد حریم خصوصی داده‌ها، تعصب الگوریتمی و پتانسیل جابجایی مشاغل را مطرح می‌کند. بیماران ممکن است نگران امنیت و محرمانگی اطلاعات بهداشتی خود باشند، به ویژه اگر از این اطلاعات برای آموزش مدل‌های هوش مصنوعی استفاده شود. تعصب الگوریتمی همچنین می‌تواند نابرابری‌های بهداشتی موجود را تداوم بخشد و تشدید کند، اگر مدل‌های هوش مصنوعی بر روی داده‌هایی آموزش داده شوند که تنوع جمعیت را به طور دقیق منعکس نمی‌کند.

ایجاد تعادل بین نوآوری و احتیاط

برای کاهش این خطرات، اتخاذ یک رویکرد محتاطانه و مسئولانه‌تر در ادغام هوش مصنوعی در مراقبت‌های بهداشتی بسیار مهم است. این شامل موارد زیر است:

  • آزمایش و اعتبارسنجی دقیق: قبل از استقرار مدل‌های هوش مصنوعی در تنظیمات بالینی، باید به طور کامل بر روی جمعیت‌های مختلف آزمایش و اعتبارسنجی شوند تا از صحت، قابلیت اطمینان و انصاف آنها اطمینان حاصل شود.
  • نظارت انسانی: هوش مصنوعی باید به عنوان ابزاری برای تقویت، نه جایگزینی، قضاوت انسانی استفاده شود. متخصصان مراقبت‌های بهداشتی همیشه باید خروجی‌های هوش مصنوعی را قبل از تصمیم‌گیری بالینی بررسی و تأیید کنند.
  • شفافیت و قابلیت توضیح: مدل‌های هوش مصنوعی باید شفاف و قابل توضیح باشند، به طوری که متخصصان مراقبت‌های بهداشتی بتوانند درک کنند که چگونه به توصیه‌های خود می‌رسند. این می‌تواند به ایجاد اعتماد به هوش مصنوعی و شناسایی اشتباهات یا تعصبات احتمالی کمک کند.
  • حریم خصوصی و امنیت داده‌ها: حفاظت‌های قوی باید برای محافظت از حریم خصوصی و امنیت اطلاعات بیمار اعمال شود. این شامل کسب رضایت آگاهانه، اجرای اقدامات امنیتی قوی و رعایت مقررات حفاظت از داده‌ها است.
  • آموزش و تربیت: متخصصان مراقبت‌های بهداشتی باید آموزش‌های جامعی در مورد نحوه استفاده مؤثر و مسئولانه از هوش مصنوعی دریافت کنند. این شامل درک محدودیت‌های هوش مصنوعی، تشخیص تعصبات احتمالی و ارزیابی انتقادی خروجی‌های هوش مصنوعی است.

رسیدگی به آسیب‌پذیری‌های امنیت سایبری

آسیب‌پذیری‌های امنیت سایبری عوامل هوش مصنوعی، همانطور که توسط محققان دانشگاه چینی هنگ کنگ برجسته شده است، تهدیدی جدی برای یکپارچگی و امنیت سیستم‌های مراقبت‌های بهداشتی محسوب می‌شود. اگر مدل‌های هوش مصنوعی در برابر حملات آسیب‌پذیر باشند، عوامل مخرب می‌توانند به طور بالقوه خروجی‌های هوش مصنوعی را دستکاری کنند، به اطلاعات حساس بیمار دسترسی پیدا کنند یا عملیات مراقبت‌های بهداشتی را مختل کنند.

برای رفع این آسیب‌پذیری‌ها، اجرای اقدامات امنیتی سایبری قوی ضروری است، مانند:

  • شیوه‌های کدنویسی امن: مدل‌های هوش مصنوعی باید با استفاده از شیوه‌های کدنویسی امن توسعه داده شوند تا از آسیب‌پذیری‌هایی مانند تزریق SQL، اسکریپت‌نویسی بین سایتی و سرریز بافر جلوگیری شود.
  • ممیزی‌های امنیتی منظم: سیستم‌های هوش مصنوعی باید به طور منظم مورد ممیزی‌های امنیتی قرار گیرند تا آسیب‌پذیری‌های احتمالی شناسایی و برطرف شوند.
  • سیستم‌های تشخیص و پیشگیری از نفوذ: سیستم‌های تشخیص و پیشگیری از نفوذ باید برای نظارت بر سیستم‌های هوش مصنوعی برای فعالیت‌های مخرب و جلوگیری از دسترسی غیرمجاز اجرا شوند.
  • رمزگذاری داده‌ها: اطلاعات حساس بیمار باید هم در حین انتقال و هم در حالت سکون رمزگذاری شوند تا از دسترسی غیرمجاز محافظت شوند.
  • کنترل دسترسی: کنترل‌های دسترسی دقیق باید برای محدود کردن دسترسی به سیستم‌های هوش مصنوعی و داده‌ها به پرسنل مجاز اجرا شوند.

ملاحظات اخلاقی

فراتر از چالش‌های فنی، ادغام هوش مصنوعی در مراقبت‌های بهداشتی تعدادی از ملاحظات اخلاقی مهم را مطرح می‌کند. این شامل موارد زیر است:

  • تعصب الگوریتمی: مدل‌های هوش مصنوعی می‌توانند نابرابری‌های بهداشتی موجود را تداوم بخشند و تشدید کنند، اگر بر روی داده‌هایی آموزش داده شوند که تنوع جمعیت را به طور دقیق منعکس نمی‌کند. اطمینان از اینکه مدل های هوش مصنوعی منصفانه و بی طرفانه هستند بسیار مهم است.
  • حریم خصوصی داده ها: بیماران ممکن است در مورد حریم خصوصی اطلاعات بهداشتی خود نگران باشند، به ویژه اگر از این اطلاعات برای آموزش مدل های هوش مصنوعی استفاده شود. کسب رضایت آگاهانه و محافظت از اطلاعات بیمار ضروری است.
  • شفافیت و قابلیت توضیح: مدل های هوش مصنوعی باید شفاف و قابل توضیح باشند، به طوری که بیماران بتوانند درک کنند که چگونه به توصیه های خود می رسند. این می تواند به ایجاد اعتماد در هوش مصنوعی کمک کند.
  • مسئولیت پذیری: مهم است که خطوط مسئولیت پذیری روشنی برای تصمیمات گرفته شده توسط سیستم های هوش مصنوعی ایجاد شود. چه کسی مسئول است اگر یک مدل هوش مصنوعی تشخیص اشتباهی بدهد یا درمانی نامناسب را توصیه کند؟

راه پیش رو

ادغام هوش مصنوعی در مراقبت های بهداشتی پتانسیل فوق العاده ای برای بهبود مراقبت از بیمار، کاهش هزینه ها و افزایش کارایی سیستم های مراقبت های بهداشتی دارد. با این حال، بسیار مهم است که با احتیاط به این ادغام نزدیک شویم و به خطرات و چالش های احتمالی رسیدگی کنیم. با اتخاذ یک رویکرد مسئولانه و اخلاقی، می توانیم از قدرت هوش مصنوعی برای تغییر مراقبت های بهداشتی به بهتر استفاده کنیم.