מודל AI ופרטיות רשומות רפואיות NHS

פיתוח ה-Foresight, מודל בינה מלאכותית (AI), עורר דיון ניכר עקב הסתמכותו על מערך נתונים עצום של 57 מיליון רשומות רפואיות מ-National Health Service (NHS) באנגליה. בעוד תומכים משבחים את הפוטנציאל שלו לחולל מהפכה בתחום הבריאות באמצעות חיזוי מחלות ותחזית אשפוז, מבקרים מביעים חששות רציניים לגבי פרטיות המטופלים והגנת הנתונים. מאמר זה מתעמק במורכבויות של Foresight, בוחן את יכולותיו, הדילמות האתיות שהוא מציג ואת אמצעי ההגנה הקיימים כדי להפחית סיכונים פוטנציאליים.

Foresight: מודל AI גנרטיבי בקנה מידה לאומי

Foresight, שהגה בשנת 2023, השתמש בתחילה ב-GPT-3 של OpenAI, הטכנולוגיה העומדת בבסיס האיטרציה הראשונה של ChatGPT, ואומן על 1.5 מיליון רשומות מטופלים משני בתי חולים בלונדון. כריס טומלינסון מהקולג’ האוניברסיטאי של לונדון וצוותו הרחיבו מאז את Foresight, וכינו אותו “מודל הבינה המלאכותית הגנרטיבית בקנה מידה לאומי הראשון בעולם של נתוני בריאות.” גרסה משופרת זו ממנפת את LLM Llama 2 בקוד פתוח של Meta ומשלבת שמונה מערכות נתונים נפרדות שנצברו באופן שגרתי על ידי NHS באנגליה מנובמבר 2018 עד דצמבר 2023. מערכות נתונים אלה כוללות פגישות חוץ, אשפוזים, רשומות חיסונים ואירועים אחרים הקשורים לבריאות, בסך הכל 10 מיליארד נקודות נתונים על פני 57 מיליון אנשים - בעצם כל אוכלוסיית אנגליה.

למרות היעדר מדדי ביצועים זמינים לציבור עקב בדיקות מתמשכות, טומלינסון טוען ש-Foresight יכול בסופו של דבר להקל על אבחונים פרטניים ולחזות מגמות בריאות רחבות יותר, כגון אשפוזים או התקפי לב. הוא הדגיש את הפוטנציאל של המודל לחזות סיבוכי מחלות מראש, לאפשר התערבות מוקדמת ומעבר לבריאות מונעת בקנה מידה במהלך מסיבת עיתונאים ב-6 במאי.

חששות בנוגע לפרטיות והגנת נתונים

האפשרות להזין נתונים רפואיים כה נרחבים למודל AI הציתה חששות לגבי פרטיות. למרות שהחוקרים טוענים שכל הרשומות “עברו דה-אינדיבידואליזציה” לפני אימון ה-AI, הסיכון לזיהוי מחדש באמצעות ניתוח דפוסי נתונים נותר דאגה משמעותית, במיוחד עם מערכי נתונים גדולים.

לוצ’ה רוצ’ר מאוניברסיטת אוקספורד מדגיש את האתגר הטמון בשמירה על פרטיות המטופל תוך בניית מודלים גנרטיביים חזקים של AI. עושר הנתונים עצמו שהופך את הנתונים ליקרי ערך למטרות AI גם מקשה מאוד על אנונימיזציה. רוצ’ר תומך בשליטה קפדנית של NHS על מודלים אלה כדי להבטיח שימוש בטוח.

מייקל צ’פמן מ-NHS Digital מכיר בסיכון הטמון בזיהוי מחדש, אפילו עם נתונים שעברו דה-אינדיבידואליזציה. בעוד שמזהים ישירים מוסרים, עושר נתוני הבריאות מקשה על הבטחת אנונימיות מוחלטת.

כדי להתמודד עם סיכון זה, צ’פמן הצהיר שה-AI פועל בתוך סביבת נתונים NHS “מאובטחת”, המגבילה דליפת מידע ומבטיחה גישה רק לחוקרים מאושרים. Amazon Web Services ו-Databricks מספקות תשתית חישובית אך אינן יכולות לגשת לנתונים.

איב-אלכסנדר דה מונטג’וי מאימפריאל קולג’ בלונדון מציע לאמת את היכולת של מודל לשנן נתוני אימון כדי לזהות דליפת מידע פוטנציאלית. כשנשאל על ידי New Scientist, טומלינסון הודה שצוות Foresight עדיין לא ערך את הבדיקות האלה, אך תכנן לעשות זאת בעתיד.

אמון הציבור ושימוש בנתונים

קרוליין גרין מאוניברסיטת אוקספורד מדגישה את החשיבות של תקשורת שימוש בנתונים לציבור כדי לשמור על אמון. למרות מאמצי האנונימיזציה, אנשים בדרך כלל רוצים לשלוט בנתונים שלהם ולהבין את יעדם, מה שגורם להם להרגיש חזק מאוד לגבי האתיקה של זה.

בקרות נוכחיות מציעות אפשרויות מוגבלות לאנשים לבטל את הסכמתם לשימוש בנתונים על ידי Foresight. נתונים ממערכות נתונים NHS שנאספו ארצית משמשים לאימון המודל, ומנגנוני ביטול ההסכמה הקיימים אינם חלים מכיוון שהנתונים “עברו דה-אינדיבידואליזציה”, לדברי דובר NHS England. עם זאת, אנשים שבחרו שלא לשתף נתונים מרופא המשפחה שלהם לא יכללו את הנתונים שלהם במודל.

GDPR ואנונימיזציה של נתונים

התקנה הכללית להגנת נתונים (GDPR) מחייבת שלאנשים תהיה אפשרות לבטל את הסכמתם לשימוש בנתונים האישיים שלהם. עם זאת, תהליך האימון של LLMs כמו Foresight הופך את זה לבלתי אפשרי להסיר רשומה בודדת מכלי ה-AI. דובר NHS England טוען ש-GDPR אינו חל מכיוון שהנתונים ששימשו לאימון המודל אנונימיים ואינם מהווים נתונים אישיים.

אתר האינטרנט של משרד הנציב למידע בבריטניה מבהיר שאסור להשתמש בנתונים “שעברו דה-אינדיבידואליזציה” לסירוגין עם נתונים אנונימיים, מכיוון שחוק הגנת הנתונים בבריטניה אינו מגדיר את המונח, והשימוש בו עלול להוביל לבלבול.

העמדה המשפטית מסתבכת עוד יותר עקב השימוש הנוכחי של Foresight למחקר הקשור ל-COVID-19, המאפשר חריגים לחוקי הגנת הנתונים שנחקקו במהלך המגפה, לדברי סם סמית’ מ-medConfidential. סמית’ טוען שהבינה המלאכותית המיועדת ל-COVID בלבד מכילה כנראה נתוני מטופלים מוטבעים שאסור שיעזבו את המעבדה, ולמטופלים צריכה להיות שליטה על השימוש בנתונים שלהם.

שיקולים אתיים

השיקולים האתיים הסובבים את השימוש בנתונים רפואיים לפיתוח AI ממקמים את Foresight בעמדה מסוכנת. גרין טוען שאתיקה ושיקולים אנושיים צריכים להיות נקודת ההתחלה לפיתוח AI, ולא מחשבה שלאחר מעשה.

בחינת הדאגות לעומק רב יותר

הדאגות הסובבות את השימוש של Foresight ברשומות רפואיות של NHS חורגות מעבר לפרטיות נתונים בלבד. הן נוגעות לשאלות מהותיות לגבי הבעלות על מידע בריאותי אישי, הפוטנציאל להטיה אלגוריתמית וההשפעה ארוכת הטווח של AI על יחסי רופא-מטופל.

בעלות ושליטה על נתוני בריאות

אחת הדילמות האתיות המרכזיות היא המידה שבה לאנשים צריכה להיות שליטה על נתוני הבריאות שלהם. בעוד שאין ספק ש-NHS דורש גישה למידע על מטופלים כדי לספק טיפול יעיל, השימוש בנתונים אלה לאימון AI מעלה שאלות לגבי האם אנשים מיודעים כראוי ומורשים להסכים לשימושים משניים כאלה.

מנגנוני ביטול ההסכמה הנוכחיים אינם מספיקים, מכיוון שהם אינם מטפלים באופן מלא במורכבות של אימון AI. הטיעון שנתונים שעברו דה-אינדיבידואליזציה אינם עוד נתונים אישיים במסגרת GDPR הוא פרשנות משפטית המתעלמת מהמציאות שגם נתונים אנונימיים יכולים להיות מזוהים מחדש או לשמש להסקת מסקנות לגבי אנשים.

גישה חזקה יותר תכלול יישום מערכת של הסכמה מדעת המתארת במפורש כיצד ניתן להשתמש בנתוני מטופלים למחקר ופיתוח של AI. זה ידרוש הסברים ברורים ונגישים על היתרונות והסיכונים הפוטנציאליים של שימושים כאלה, כמו גם לספק לאנשים הזדמנות משמעותית לבחור להסכים או לבטל את הסכמתם.

הטיה אלגוריתמית

דאגה משמעותית נוספת היא הפוטנציאל להטיה אלגוריתמית במודלים של AI שאומנו על מערכי נתונים גדולים. אם הנתונים ששימשו לאימון Foresight משקפים פערי בריאות קיימים, המודל עלול להנציח ואף להגביר את אי השוויון הזה.

לדוגמה, אם קבוצות דמוגרפיות מסוימות אינן מיוצגות מספיק במערך הנתונים או אם המצבים הרפואיים שלהן מאובחנים בצורה שגויה או מטופלים בצורה לא מספקת, ה-AI עשוי להיות פחות מדויק בחיזוי מחלות או אשפוזים עבור קבוצות אלה. זה עלול להוביל לגישה לא שוויונית למשאבי בריאות ועלול להחריף פערי בריאות קיימים.

כדי להפחית את הסיכון להטיה אלגוריתמית, חיוני לנתח בקפידה את הנתונים המשמשים לאימון Foresight ולזהות ולטפל בכל הטיה פוטנציאלית. זה עשוי לכלול דגימת יתר של קבוצות שאינן מיוצגות מספיק, תיקון אי דיוקים בנתונים ופיתוח אלגוריתמים שתוכננו במיוחד להיות הוגנים ושוויוניים.

השפעה על יחסי רופא-מטופל

השימוש הגובר ב-AI בתחום הבריאות עלול לשנות את יחסי רופא-מטופל המסורתיים בדרכים עמוקות. בעוד ש-AI יכול ללא ספק לסייע לרופאים בקבלת החלטות מושכלות יותר, חיוני להבטיח שהוא לא יחליף את המרכיב האנושי של הטיפול.

מטופלים צריכים להרגיש בטוחים שהרופאים שלהם משתמשים ב-AI ככלי לשיפור השיפוט הקליני שלהם, לא כתחליף לו. יחסי רופא-מטופל צריכים להישאר יחסי אמון, אמפתיה וקבלת החלטות משותפת.

כדי להגן על יחסי רופא-מטופל, חשוב להדגיש את החשיבות של אינטראקציה ותקשורת אנושית בתחום הבריאות. יש להכשיר רופאים לתקשר ביעילות את תפקידו של AI בתהליך קבלת ההחלטות שלהם ולטפל בכל חשש שיש למטופלים.

מציאת נתיב קדימה

ניווט בנוף האתי והמשפטי המורכב הסובב AI בתחום הבריאות דורש גישה רב-פנים.

  • שקיפות ומעורבות ציבורית: תקשר בפתיחות כיצד נעשה שימוש בנתוני מטופלים וערב את הציבור בדיונים על ההשלכות האתיות של AI בתחום הבריאות.
  • חיזוק הגנת הנתונים: יישם אמצעי הגנת נתונים מחמירים יותר כדי למזער את הסיכון לזיהוי מחדש ולהבטיח שלאנשים תהיה שליטה רבה יותר על נתוני הבריאות שלהם.
  • טיפול בהטיה אלגוריתמית: זהה באופן פעיל ומזער הטיה אלגוריתמית במודלים של AI כדי להבטיח גישה שוויונית לבריאות לכולם.
  • תעדוף טיפול ממוקד באדם: הדגש את החשיבות של יחסי רופא-מטופל והבטח ש-AI ישמש ככלי לשיפור, לא להחלפת אינטראקציה אנושית.

על ידי טיפול בחששות אלה, נוכל לרתום את הפוטנציאל הטרנספורמטיבי של AI בתחום הבריאות תוך שמירה על פרטיות המטופלים, קידום שוויון ושמירה על המרכיב האנושי של הטיפול. עתיד הבריאות תלוי ביכולתנו לנווט באתגרים אלה באחריות ובאופן אתי. רק אז נוכל להבטיח ש-AI אכן משרת את האינטרסים הטובים ביותר של המטופלים והחברה כולה.