توسعه Foresight، یک مدل هوش مصنوعی (AI)، به دلیل اتکا به مجموعه داده گسترده ای از 57 میلیون سابقه پزشکی از سرویس بهداشت ملی (NHS) در انگلستان، بحث های قابل توجهی را برانگیخته است. در حالی که طرفداران آن پتانسیل آن را برای متحول کردن مراقبت های بهداشتی از طریق پیش بینی بیماری و پیش بینی بستری شدن در بیمارستان می ستایند، منتقدان نگرانی های جدی در مورد حریم خصوصی بیمار و حفاظت از داده ها ابراز می کنند. این مقاله به پیچیدگی های Foresight می پردازد و قابلیت های آن، معضلات اخلاقی که ارائه می دهد و اقدامات حفاظتی موجود برای کاهش خطرات احتمالی را بررسی می کند.
Foresight: یک مدل هوش مصنوعی مولد در مقیاس ملی
Foresight، که در سال 2023 تصور شد، در ابتدا از GPT-3 OpenAI، فناوری زیربنای اولین تکرار ChatGPT، استفاده کرد و بر روی 1.5 میلیون سابقه بیمار از دو بیمارستان لندن آموزش داده شد. کریس تاملینسون از University College London و تیمش از آن زمان Foresight را گسترش داده اند و آن را اولین “مدل هوش مصنوعی مولد در مقیاس ملی از داده های بهداشتی” در جهان نامگذاری کرده اند. این نسخه پیشرفته از LLM منبع باز Meta Llama 2 استفاده می کند و هشت مجموعه داده مجزا را که به طور معمول توسط NHS در انگلستان از نوامبر 2018 تا دسامبر 2023 جمع آوری شده اند، در خود جای داده است. این مجموعه داده ها شامل نوبت های سرپایی، بستری شدن در بیمارستان، سوابق واکسیناسیون و سایر رویدادهای مرتبط با سلامت است که در مجموع 10 میلیارد نقطه داده در سراسر 57 میلیون نفر - اساساً کل جمعیت انگلستان را تشکیل می دهد.
علیرغم عدم وجود معیارهای عملکردی که به طور عمومی در دسترس باشند، تاملینسون ادعا می کند که Foresight می تواند در نهایت تشخیص های فردی را تسهیل کند و روندهای گسترده تر سلامتی، مانند بستری شدن در بیمارستان یا حملات قلبی را پیش بینی کند. وی در یک کنفرانس مطبوعاتی در 6 مه بر پتانسیل این مدل برای پیش بینی عوارض بیماری به طور پیشگیرانه، توانمندسازی مداخله زودهنگام و تغییر به سمت مراقبت های بهداشتی پیشگیرانه در مقیاس بزرگ تاکید کرد.
نگرانی های مربوط به حریم خصوصی و حفاظت از داده ها
چشم انداز تغذیه چنین داده های پزشکی گسترده ای به یک مدل هوش مصنوعی، نگرانی هایی را در مورد حریم خصوصی برانگیخته است. اگرچه محققان ادعا می کنند که تمام سوابق قبل از آموزش هوش مصنوعی “ناشناس” شده اند، اما خطر شناسایی مجدد از طریق تجزیه و تحلیل الگوهای داده همچنان یک نگرانی قابل توجه است، به خصوص با مجموعه داده های بزرگ.
لوک روچر از University of Oxford چالش ذاتی محافظت از حریم خصوصی بیمار در حین ساخت مدل های هوش مصنوعی مولد قدرتمند را برجسته می کند. غنای داده ای که داده ها را برای اهداف هوش مصنوعی ارزشمند می کند، ناشناس کردن آن را نیز فوق العاده دشوار می کند. روچر از کنترل دقیق NHS بر این مدل ها برای اطمینان از استفاده ایمن حمایت می کند.
مایکل چپمن از NHS Digital خطر ذاتی شناسایی مجدد را حتی با داده های ناشناس تایید می کند. در حالی که شناسه های مستقیم حذف می شوند، غنای داده های بهداشتی تضمین ناشناس بودن کامل را دشوار می کند.
چپمن برای مقابله با این خطر، اظهار داشت که هوش مصنوعی در یک محیط داده “امن” NHS عمل می کند، از نشت اطلاعات جلوگیری می کند و دسترسی را فقط به محققان تایید شده تضمین می کند. Amazon Web Services و Databricks زیرساخت محاسباتی را ارائه می دهند اما نمی توانند به داده ها دسترسی داشته باشند.
ایو-الکساندر دو مونتجوی از Imperial College London پیشنهاد می کند توانایی یک مدل برای به خاطر سپردن داده های آموزشی را برای تشخیص نشت احتمالی اطلاعات تأیید کند. تاملینسون هنگام پرسش توسط New Scientist اعتراف کرد که تیم Foresight هنوز این آزمایش ها را انجام نداده است اما قصد دارد در آینده این کار را انجام دهد.
اعتماد عمومی و استفاده از داده ها
کارولین گرین از University of Oxford بر اهمیت اطلاع رسانی استفاده از داده ها به عموم مردم برای حفظ اعتماد تاکید می کند. علیرغم تلاشهای ناشناسسازی، مردم عموماً میخواهند دادههای خود را کنترل کنند و مقصد آن را درک کنند، که باعث میشود آنها احساس بسیار قویتری نسبت به اخلاقیات آن داشته باشند.
کنترلهای فعلی گزینههای محدودی را برای افراد برای انصراف از استفاده از دادهها توسط Foresight ارائه میدهند. دادهها از مجموعه دادههای NHS جمعآوریشده در سطح ملی برای آموزش مدل استفاده میشوند، و مکانیسمهای انصراف موجود اعمال نمیشوند زیرا دادهها طبق گفته سخنگوی NHS England “ناشناس” شدهاند. با این حال، افرادی که از اشتراکگذاری دادهها از پزشک خانواده خود انصراف دادهاند، دادههای آنها در مدل گنجانده نخواهد شد.
GDPR و ناشناس سازی داده ها
مقررات عمومی حفاظت از داده ها (GDPR) الزام می کند که افراد این گزینه را داشته باشند که رضایت خود را برای استفاده از داده های شخصی خود پس بگیرند. با این حال، فرآیند آموزش LLM ها مانند Foresight حذف یک رکورد واحد از ابزار هوش مصنوعی را غیرممکن می کند. سخنگوی NHS England ادعا می کند که GDPR اعمال نمی شود زیرا داده های مورد استفاده برای آموزش مدل ناشناس شده اند و داده های شخصی محسوب نمی شوند.
وب سایت دفتر کمیسر اطلاعات بریتانیا تصریح می کند که داده های “ناشناس” نباید به طور متقابل با داده های ناشناس استفاده شوند، زیرا قانون حفاظت از داده های بریتانیا این اصطلاح را تعریف نمی کند و استفاده از آن می تواند منجر به سردرگمی شود.
موقعیت قانونی با استفاده فعلی Foresight برای تحقیقات مرتبط با COVID-19 پیچیده تر می شود، که اجازه می دهد استثناهایی برای قوانین حفاظت از داده ها که در طول همه گیری وضع شده اند، طبق گفته سام اسمیت از medConfidential. اسمیت ادعا می کند که هوش مصنوعی فقط COVID به احتمال زیاد حاوی داده های بیمار تعبیه شده است که نباید آزمایشگاه را ترک کند و بیماران باید بر استفاده از داده های خود کنترل داشته باشند.
ملاحظات اخلاقی
ملاحظات اخلاقی پیرامون استفاده از داده های پزشکی برای توسعه هوش مصنوعی، Foresight را در موقعیت نامطمئنی قرار می دهد. گرین استدلال می کند که اخلاق و ملاحظات انسانی باید نقطه شروع توسعه هوش مصنوعی باشد، نه یک فکر بعدی.
بررسی عمیق تر نگرانی ها
نگرانی های مربوط به استفاده Foresight از سوابق پزشکی NHS فراتر از حریم خصوصی صرف داده ها است. آنها به سوالات اساسی در مورد مالکیت اطلاعات بهداشتی شخصی، پتانسیل سوگیری الگوریتمی و تأثیر طولانی مدت هوش مصنوعی بر رابطه پزشک و بیمار می پردازند.
مالکیت و کنترل داده های بهداشتی
یکی از معضلات اصلی اخلاقی این است که افراد تا چه حد باید بر داده های بهداشتی خود کنترل داشته باشند. در حالی که NHS بدون شک به دسترسی به اطلاعات بیمار برای ارائه مراقبت موثر نیاز دارد، استفاده از این داده ها برای آموزش هوش مصنوعی این سوال را مطرح می کند که آیا افراد به طور کافی در مورد این استفاده های ثانویه مطلع شده اند و توانمند شده اند تا به آن رضایت دهند یا خیر.
مکانیسم های انصراف فعلی ناکافی هستند، زیرا به طور کامل به پیچیدگی های آموزش هوش مصنوعی نمی پردازند. این استدلال که داده های ناشناس دیگر داده های شخصی تحت GDPR نیستند، یک تفسیر قانونی است که این واقعیت را نادیده می گیرد که حتی داده های ناشناس نیز می توانند به طور بالقوه دوباره شناسایی شوند یا برای استنتاج در مورد افراد استفاده شوند.
یک رویکرد قوی تر شامل اجرای یک سیستم رضایت آگاهانه است که به صراحت نحوه استفاده از داده های بیمار برای تحقیق و توسعه هوش مصنوعی را شرح می دهد. این امر مستلزم توضیحات واضح و در دسترس از مزایا و خطرات احتمالی چنین استفاده هایی، و همچنین ارائه یک فرصت معنادار به افراد برای انتخاب ورود یا انصراف است.
سوگیری الگوریتمی
یکی دیگر از نگرانی های قابل توجه، پتانسیل سوگیری الگوریتمی در مدل های هوش مصنوعی است که بر روی مجموعه داده های بزرگ آموزش داده شده اند. اگر داده های مورد استفاده برای آموزش Foresight منعکس کننده نابرابری های بهداشتی موجود باشد، این مدل ممکن است این نابرابری ها را تداوم بخشد و حتی تقویت کند.
به عنوان مثال، اگر گروه های جمعیتی خاص در مجموعه داده کم نمایندگی داشته باشند یا اگر شرایط پزشکی آنها به اشتباه تشخیص داده شود یا کم درمان شود، هوش مصنوعی ممکن است در پیش بینی بیماری یا بستری شدن در بیمارستان برای این گروه ها کمتر دقیق باشد. این می تواند منجر به دسترسی نابرابر به منابع مراقبت های بهداشتی شود و به طور بالقوه نابرابری های بهداشتی موجود را تشدید کند.
برای کاهش خطر سوگیری الگوریتمی، ضروری است که داده های مورد استفاده برای آموزش Foresight را به دقت تجزیه و تحلیل کنیم و هرگونه سوگیری احتمالی را شناسایی و برطرف کنیم. این ممکن است شامل نمونه برداری بیش از حد از گروه های کم نمایندگی، تصحیح نادرستی ها در داده ها و توسعه الگوریتم هایی باشد که به طور خاص برای منصفانه و عادلانه بودن طراحی شده اند.
تأثیر بر رابطه پزشک و بیمار
استفاده روزافزون از هوش مصنوعی در مراقبت های بهداشتی این پتانسیل را دارد که رابطه سنتی پزشک و بیمار را به روش های عمیقی تغییر دهد. در حالی که هوش مصنوعی بدون شک می تواند به پزشکان در تصمیم گیری آگاهانه تر کمک کند، بسیار مهم است که اطمینان حاصل شود که جایگزین عنصر انسانی مراقبت نمی شود.
بیماران باید اطمینان داشته باشند که پزشکان از هوش مصنوعی به عنوان ابزاری برای ارتقای قضاوت بالینی خود استفاده می کنند، نه به عنوان جایگزینی برای آن. رابطه پزشک و بیمار باید همچنان بر پایه اعتماد، همدلی و تصمیم گیری مشترک باشد.
برای حفاظت از رابطه پزشک و بیمار، مهم است که بر اهمیت تعامل و ارتباط انسانی در مراقبت های بهداشتی تأکید شود. پزشکان باید آموزش ببینند تا نقش هوش مصنوعی را در فرآیند تصمیم گیری خود به طور موثر به اشتراک بگذارند و به هر گونه نگرانی که بیماران ممکن است داشته باشند، رسیدگی کنند.
یافتن راهی به جلو
پیمایش در چشم انداز پیچیده اخلاقی و قانونی پیرامون هوش مصنوعی در مراقبت های بهداشتی نیازمند یک رویکرد چند وجهی است.
- شفافیت و مشارکت عمومی: به طور آشکار در مورد نحوه استفاده از داده های بیمار اطلاع رسانی کنید و عموم مردم را در بحث در مورد پیامدهای اخلاقی هوش مصنوعی در مراقبت های بهداشتی درگیر کنید.
- تقویت حفاظت از داده ها: اقدامات حفاظت از داده های سخت گیرانه تری را برای به حداقل رساندن خطر شناسایی مجدد و اطمینان از اینکه افراد کنترل بیشتری بر داده های بهداشتی خود دارند، اجرا کنید.
- رسیدگی به سوگیری الگوریتمی: به طور فعال سوگیری الگوریتمی را در مدل های هوش مصنوعی شناسایی و کاهش دهید تا دسترسی عادلانه به مراقبت های بهداشتی برای همه تضمین شود.
- اولویت بندی مراقبت های انسان محور: بر اهمیت رابطه پزشک و بیمار تأکید کنید و اطمینان حاصل کنید که هوش مصنوعی به عنوان ابزاری برای ارتقا، نه جایگزینی، تعامل انسانی استفاده می شود.
با پرداختن به این نگرانی ها، می توانیم از پتانسیل تحول آفرین هوش مصنوعی در مراقبت های بهداشتی استفاده کنیم و در عین حال از حریم خصوصی بیمار محافظت کنیم، عدالت را ترویج کنیم و عنصر انسانی مراقبت را حفظ کنیم. آینده مراقبت های بهداشتی به توانایی ما در پیمایش مسئولانه و اخلاقی این چالش ها بستگی دارد. تنها در این صورت می توانیم اطمینان حاصل کنیم که هوش مصنوعی واقعاً در خدمت بهترین منافع بیماران و جامعه به طور کلی است.