Foresight: โมเดล AI เชิงกำเนิดระดับชาติ
Foresight ซึ่งคิดค้นขึ้นในปี 2023 เริ่มต้นด้วยการใช้ GPT-3 ของ OpenAI ซึ่งเป็นเทคโนโลยีที่สนับสนุน ChatGPT รุ่นแรก และได้รับการฝึกฝนจากบันทึกผู้ป่วย 1.5 ล้านรายการจากโรงพยาบาลสองแห่งในลอนดอน Chris Tomlinson แห่ง University College London และทีมงานของเขาได้ขยาย Foresight นับแต่นั้นมา โดยเรียกขานว่าเป็น "โมเดล AI เชิงกำเนิดข้อมูลสุขภาพระดับชาติ" แห่งแรกของโลก รุ่นที่ปรับปรุงนี้ใช้ประโยชน์จาก LLM Llama 2 แบบโอเพนซอร์สของ Meta และรวมชุดข้อมูลที่แตกต่างกันแปดชุดที่ NHS ในอังกฤษรวบรวมเป็นประจำตั้งแต่เดือนพฤศจิกายน 2018 ถึงธันวาคม 2023 ชุดข้อมูลเหล่านี้ครอบคลุมการนัดหมายผู้ป่วยนอก การเข้ารับการรักษาในโรงพยาบาล บันทึกการฉีดวัคซีน และเหตุการณ์ที่เกี่ยวข้องกับสุขภาพอื่นๆ รวมเป็น 1 หมื่นล้านจุดข้อมูลใน 57 ล้านคน ซึ่งโดยพื้นฐานแล้วคือประชากรทั้งหมดของอังกฤษ
แม้ว่าจะไม่มีเมตริกประสิทธิภาพที่เปิดเผยต่อสาธารณชนเนื่องจากการทดสอบที่กำลังดำเนินอยู่ Tomlinson ยืนยันว่าในที่สุด Foresight อาจอำนวยความสะดวกในการวินิจฉัยรายบุคคลและทำนายแนวโน้มด้านสุขภาพในวงกว้าง เช่น การรักษาในโรงพยาบาลหรืออาการหัวใจวาย เขาเน้นย้ำถึงศักยภาพของโมเดลในการทำนายภาวะแทรกซ้อนของโรคในเชิงรุก ทำให้สามารถแทรกแซงได้ตั้งแต่เนิ่นๆ และเปลี่ยนไปสู่การดูแลสุขภาพเชิงป้องกันในวงกว้างระหว่างการแถลงข่าวเมื่อวันที่ 6 พฤษภาคม
ข้อกังวลเรื่องความเป็นส่วนตัวและการปกป้องข้อมูล
โอกาสที่จะป้อนข้อมูลทางการแพทย์ที่กว้างขวางดังกล่าวลงในโมเดล AI ได้จุดประกายความกังวลเกี่ยวกับความเป็นส่วนตัว แม้ว่านักวิจัยจะอ้างว่าบันทึกทั้งหมด "ระบุตัวตนแล้ว" ก่อนที่จะฝึก AI ความเสี่ยงในการระบุตัวตนอีกครั้งผ่านการวิเคราะห์รูปแบบข้อมูลยังคงเป็นข้อกังวลที่สำคัญ โดยเฉพาะอย่างยิ่งกับชุดข้อมูลขนาดใหญ่
Luc Rocher แห่งมหาวิทยาลัยอ็อกซ์ฟอร์ดเน้นย้ำถึงความท้าทายโดยธรรมชาติในการปกป้องความเป็นส่วนตัวของผู้ป่วยขณะสร้างโมเดล AI เชิงกำเนิดที่มีประสิทธิภาพ ความสมบูรณ์ของข้อมูลที่ทำให้ข้อมูลมีค่าสำหรับวัตถุประสงค์ของ AI ยังทำให้การไม่เปิดเผยตัวตนเป็นเรื่องยากอย่างไม่น่าเชื่อ Rocher สนับสนุนการควบคุม NHS อย่างเข้มงวดเหนือโมเดลเหล่านี้เพื่อให้แน่ใจว่ามีการใช้งานที่ปลอดภัย
Michael Chapman แห่ง NHS Digital รับทราบถึงความเสี่ยงโดยธรรมชาติในการระบุตัวตนอีกครั้ง แม้ว่าข้อมูลจะถูกระบุตัวตนแล้วก็ตาม แม้ว่าจะมีการลบตัวระบุโดยตรงออกไป แต่ความสมบูรณ์ของข้อมูลด้านสุขภาพทำให้ยากที่จะรับประกันการไม่เปิดเผยตัวตนอย่างสมบูรณ์
เพื่อตอบโต้ความเสี่ยงนี้ Chapman กล่าวว่า AI ทำงานภายในสภาพแวดล้อมข้อมูล NHS ที่ "ปลอดภัย" ซึ่งจำกัดการรั่วไหลของข้อมูลและรับรองการเข้าถึงเฉพาะนักวิจัยที่ได้รับการอนุมัติ Amazon Web Services และ Databricks จัดหาโครงสร้างพื้นฐานด้านการคำนวณแต่ไม่สามารถเข้าถึงข้อมูลได้
Yves-Alexandre de Montjoye แห่ง Imperial College London แนะนำให้ตรวจสอบความสามารถของโมเดลในการจดจำข้อมูลการฝึกอบรมเพื่อตรวจจับการรั่วไหลของข้อมูลที่อาจเกิดขึ้น เมื่อถูกถามโดย New Scientist Tomlinson ยอมรับว่าทีมงาน Foresight ยังไม่ได้ทำการทดสอบเหล่านี้ แต่มีแผนที่จะทำในอนาคต
ความไว้วางใจของสาธารณชนและการใช้ข้อมูล
Caroline Green แห่งมหาวิทยาลัยอ็อกซ์ฟอร์ดเน้นย้ำถึงความสำคัญของการสื่อสารการใช้ข้อมูลสู่สาธารณชนเพื่อรักษาความไว้วางใจ แม้จะมีความพยายามในการไม่เปิดเผยตัวตน แต่โดยทั่วไปแล้วผู้คนต้องการควบคุมข้อมูลของตนและเข้าใจปลายทาง ซึ่งทำให้พวกเขารู้สึกอย่างมากเกี่ยวกับจริยธรรมของมัน
การควบคุมในปัจจุบันมีตัวเลือกที่จำกัดสำหรับบุคคลในการเลือกไม่ใช้การใช้ข้อมูลโดย Foresight ข้อมูลจากชุดข้อมูล NHS ที่รวบรวมในระดับประเทศใช้เพื่อฝึกฝนโมเดล และกลไกการเลือกไม่ใช้ที่มีอยู่ไม่ได้นำไปใช้เนื่องจากข้อมูล "ระบุตัวตนแล้ว" ตามที่โฆษกของ NHS England กล่าว อย่างไรก็ตาม บุคคลที่เลือกที่จะไม่แบ่งปันข้อมูลจากแพทย์ประจำครอบครัวของตนจะไม่รวมข้อมูลของตนไว้ในโมเดล
GDPR และการไม่เปิดเผยชื่อข้อมูล
กฎระเบียบว่าด้วยการคุ้มครองข้อมูลทั่วไป (GDPR) กำหนดให้บุคคลมีตัวเลือกในการถอนความยินยอมสำหรับการใช้ข้อมูลส่วนบุคคลของตน อย่างไรก็ตาม กระบวนการฝึกอบรมของ LLM เช่น Foresight ทำให้ไม่สามารถลบบันทึกเดียวออกจากเครื่องมือ AI ได้ โฆษกของ NHS England ยืนยันว่า GDPR ไม่ได้นำมาใช้เนื่องจากข้อมูลที่ใช้ในการฝึกฝนโมเดลนั้นไม่เปิดเผยชื่อและไม่ได้ถือว่าเป็นข้อมูลส่วนบุคคล
เว็บไซต์ของสำนักงานคณะกรรมการข้อมูลข่าวสารแห่งสหราชอาณาจักรชี้แจงว่าไม่ควรใช้ข้อมูลที่ "ระบุตัวตนแล้ว" สลับกันกับข้อมูลที่ไม่ระบุชื่อ เนื่องจากกฎหมายคุ้มครองข้อมูลของสหราชอาณาจักรไม่ได้กำหนดคำดังกล่าว และการใช้งานอาจนำไปสู่ความสับสน
สถานะทางกฎหมายมีความซับซ้อนยิ่งขึ้นจากการใช้ Foresight ในปัจจุบันสำหรับการวิจัยที่เกี่ยวข้องกับ COVID-19 ซึ่งอนุญาตให้มีข้อยกเว้นสำหรับกฎหมายคุ้มครองข้อมูลที่บังคับใช้ในช่วงการระบาดใหญ่ ตามที่ Sam Smith แห่ง medConfidential กล่าว Smith ยืนยันว่า AI ที่ใช้ COVID เท่านั้นน่าจะมีข้อมูลผู้ป่วยฝังตัวอยู่ซึ่งไม่ควรออกจากห้องปฏิบัติการ และผู้ป่วยควรควบคุมการใช้ข้อมูลของตน
ข้อพิจารณาด้านจริยธรรม
ข้อพิจารณาด้านจริยธรรมเกี่ยวกับการใช้ข้อมูลทางการแพทย์สำหรับการพัฒนา AI ทำให้ Foresight อยู่ในสถานะที่ไม่มั่นคง Green โต้แย้งว่าจริยธรรมและข้อพิจารณาของมนุษย์ควรเป็นจุดเริ่มต้นสำหรับการพัฒนา AI มากกว่าที่จะเป็นความคิดภายหลัง
การตรวจสอบข้อกังวลอย่างลึกซึ้งยิ่งขึ้น
ข้อกังวลเกี่ยวกับการใช้บันทึกทางการแพทย์ NHS ของ Foresight ขยายออกไปไกลกว่าแค่ความเป็นส่วนตัวของข้อมูล พวกเขาแตะต้องคำถามพื้นฐานเกี่ยวกับความเป็นเจ้าของข้อมูลสุขภาพส่วนบุคคล ศักยภาพสำหรับอคติทางอัลกอริทึม และผลกระทบระยะยาวของ AI ต่อความสัมพันธ์ระหว่างแพทย์กับผู้ป่วย
ความเป็นเจ้าของและการควบคุมข้อมูลสุขภาพ
หนึ่งในภาวะที่กลืนไม่เข้าคายไม่ออกทางจริยธรรมหลักคือขอบเขตที่บุคคลควรควบคุมข้อมูลสุขภาพของตนเอง แม้ว่า NHS จะต้องเข้าถึงข้อมูลผู้ป่วยอย่างไม่ต้องสงสัยเพื่อให้การดูแลที่มีประสิทธิภาพ การใช้ข้อมูลนี้สำหรับการฝึกอบรม AI ทำให้เกิดคำถามว่าบุคคลได้รับแจ้งอย่างเพียงพอและได้รับอำนาจในการยินยอมให้ใช้รองดังกล่าวหรือไม่
กลไกการเลือกไม่ใช ้ในปัจจุบันไม่เพียงพอ เนื่องจากไม่ได้แก้ไขความซับซ้อนของการฝึกอบรม AI อย่างเต็มที่ ข้อโต้แย้งที่ว่าข้อมูลที่ระบุตัวตนแล้วไม่ใช่ข้อมูลส่วนบุคคลอีกต่อไปภายใต้ GDPR เป็นการตีความทางกฎหมายที่มองข้ามความเป็นจริงที่ว่าแม้แต่ข้อมูลที่ไม่ระบุชื่อก็สามารถระบุตัวตนอีกครั้งหรือใช้เพื่ออนุมานเกี่ยวกับบุคคลได้
แนวทางที่แข็งแกร่งกว่าคือการใช้ระบบการยินยอมที่ได้รับแจ้งซึ่งระบุไว้อย่างชัดเจนว่าข้อมูลผู้ป่วยอาจถูกใช้สำหรับการวิจัยและพัฒนา AI ได้อย่างไร สิ่งนี้จะต้องมีคำอธิบายที่ชัดเจนและเข้าถึงได้เกี่ยวกับผลประโยชน์และความเสี่ยงที่อาจเกิดขึ้นจากการใช้งานดังกล่าว ตลอดจนเปิดโอกาสให้บุคคลสามารถเลือกเข้าร่วมหรือเลือกไม่เข้าร่วมได้อย่างมีความหมาย
อคติทางอัลกอริทึม
ข้อกังวลที่สำคัญอีกประการหนึ่งคือศักยภาพสำหรับอคติทางอัลกอริทึมในโมเดล AI ที่ฝึกฝนจากชุดข้อมูลขนาดใหญ่ หากข้อมูลที่ใช้ในการฝึกฝน Foresight สะท้อนถึงความเหลื่อมล้ำด้านสุขภาพที่มีอยู่ โมเดลอาจทำให้ความไม่เท่าเทียมเหล่านี้คงอยู่และขยายใหญ่ขึ้นได้
ตัวอย่างเช่น หากกลุ่มประชากรบางกลุ่มมีจำนวนน้อยเกินไปในชุดข้อมูล หรือหากสภาพทางการแพทย์ของพวกเขาได้รับการวินิจฉัยผิดพลาดหรือได้รับการรักษาไม่เพียงพอ AI อาจมีความแม่นยำน้อยกว่าในการทำนายโรคหรือการรักษาในโรงพยาบาลสำหรับกลุ่มเหล่านี้ สิ่งนี้อาจนำไปสู่การเข้าถึงทรัพยากรด้านการดูแลสุขภาพที่ไม่เท่าเทียมกันและอาจทำให้ความไม่เท่าเทียมด้านสุขภาพที่มีอยู่นั้นรุนแรงขึ้น
เพื่อลดความเสี่ยงของอคติทางอัลกอริทึม สิ่งสำคัญคือต้องวิเคราะห์ข้อมูลที่ใช้ในการฝึกฝน Foresight อย่างรอบคอบ และเพื่อระบุและแก้ไขอคติที่อาจเกิดขึ้น สิ่งนี้อาจเกี่ยวข้องกับการสุ่มตัวอย่างกลุ่มที่มีจำนวนน้อยเกินไป การแก้ไขความไม่ถูกต้องในข้อมูล และการพัฒนาอัลกอริทึมที่ได้รับการออกแบบมาโดยเฉพาะเพื่อให้มีความยุติธรรมและเท่าเทียมกัน
ผลกระทบต่อความสัมพันธ์ระหว่างแพทย์กับผู้ป่วย
การใช้ AI ที่เพิ่มขึ้นในการดูแลสุขภาพมีศักยภาพในการเปลี่ยนแปลงความสัมพันธ์ระหว่างแพทย์กับผู้ป่วยแบบดั้งเดิมในรูปแบบที่ลึกซึ้ง แม้ว่า AI จะช่วยให้แพทย์ตัดสินใจได้อย่างมีข้อมูลมากขึ้นอย่างไม่ต้องสงสัย แต่สิ่งสำคัญคือต้องแน่ใจว่า AI จะไม่เข้ามาแทนที่องค์ประกอบที่เป็นมนุษย์ในการดูแล
ผู้ป่วยจำเป็นต้องรู้สึกมั่นใจว่าแพทย์ของตนกำลังใช้ AI เป็นเครื่องมือในการเพิ่มพูนวิจารณญาณทางคลินิก ไม่ใช่เพื่อทดแทน ความสัมพันธ์ระหว่างแพทย์กับผู้ป่วยควรยังคงเป็นความไว้วางใจ ความเห็นอกเห็นใจ และการตัดสินใจร่วมกัน
เพื่อปกป้องความสัมพันธ์ระหว่างแพทย์กับผู้ป่วย สิ่งสำคัญคือต้องเน้นย้ำถึงความสำคัญของการมีปฏิสัมพันธ์และการสื่อสารของมนุษย์ในการดูแลสุขภาพ แพทย์ควรได้รับการฝึกฝนให้สื่อสารบทบาทของ AI ในกระบวนการตัดสินใจของตนอย่างมีประสิทธิภาพ และเพื่อแก้ไขข้อกังวลใดๆ ที่ผู้ป่วยอาจมี
การค้นหาเส้นทางไปข้างหน้า
การนำทางภูมิทัศน์ทางจริยธรรมและกฎหมายที่ซับซ้อนโดยรอบ AI ในการดูแลสุขภาพต้องใช้แนวทางหลายแง่มุม
- ความโปร่งใสและการมีส่วนร่วมของสาธารณชน: สื่อสารอย่างเปิดเผยว่าข้อมูลผู้ป่วยถูกใช้อย่างไรและให้สาธารณชนมีส่วนร่วมในการอภิปรายเกี่ยวกับผลกระทบทางจริยธรรมของ AI ในการดูแลสุขภาพ
- การเสริมสร้างการปกป้องข้อมูล: ใช้มาตรการปกป้องข้อมูลที่เข้มงวดยิ่งขึ้นเพื่อลดความเสี่ยงของการระบุตัวตนอีกครั้งและรับรองว่าบุคคลสามารถควบคุมข้อมูลสุขภาพของตนได้มากขึ้น
- การแก้ไขอคติทางอัลกอริทึม: ระบุและลดอคติทางอัลกอริทึมในโมเดล AI อย่างแข็งขัน เพื่อให้มั่นใจว่าทุกคนสามารถเข้าถึงการดูแลสุขภาพได้อย่างเท่าเทียมกัน
- การให้ความสำคัญกับการดูแลที่ยึดมนุษย์เป็นศูนย์กลาง: เน้นย้ำถึงความสำคัญของความสัมพันธ์ระหว่างแพทย์กับผู้ป่วย และรับรองว่า AI จะถูกใช้เป็นเครื่องมือในการเพิ่มพูน ไม่ใช่แทนที่ปฏิสัมพันธ์ของมนุษย์
ด้วยการแก้ไขข้อกังวลเหล่านี้ เราสามารถควบคุมศักยภาพในการเปลี่ยนแปลงของ AI ในการดูแลสุขภาพในขณะที่ปกป้องความเป็นส่วนตัวของผู้ป่วย ส่งเสริมความเท่าเทียมกัน และรักษาส่วนประกอบที่เป็นมนุษย์ของการดูแล อนาคตของการดูแลสุขภาพขึ้นอยู่กับความสามารถของเราในการนำทางการท้าทายเหล่านี้อย่างมีความรับผิดชอบและมีจริยธรรม เมื่อนั้นเท่านั้นที่เราจะสามารถรับรองได้ว่า AI ให้บริการผลประโยชน์ที่ดีที่สุดของผู้ป่วยและสังคมโดยรวมอย่างแท้จริง