ความก้าวหน้าอย่างไม่หยุดยั้งของปัญญาประดิษฐ์ (AI) ยังคงเปลี่ยนแปลงอุตสาหกรรมต่างๆ อย่างต่อเนื่อง และบางทีอาจไม่มีที่ใดที่มีเดิมพันสูงกว่า หรือมีศักยภาพลึกซึ้งไปกว่าในสาขาการแพทย์ เป็นเวลาหลายปีที่โมเดล AI ที่ทรงพลังที่สุด โดยเฉพาะแบบจำลองภาษาขนาดใหญ่ (LLMs) ซึ่งสามารถประมวลผลและสร้างข้อความที่เหมือนมนุษย์ได้ ส่วนใหญ่อยู่ภายใต้กำแพงป้องกันของบริษัทยักษ์ใหญ่ด้านเทคโนโลยี ระบบที่เป็นกรรมสิทธิ์เหล่านี้ เช่น GPT-4 จาก OpenAI ที่มีการพูดถึงอย่างกว้างขวาง ได้แสดงให้เห็นถึงความถนัดที่น่าทึ่ง แม้กระทั่งขยายไปสู่ขอบเขตที่ซับซ้อนของการวินิจฉัยทางการแพทย์ ทว่า ลักษณะ ‘กล่องดำ’ (black box) และความจำเป็นในการส่งข้อมูลที่ละเอียดอ่อนไปยังเซิร์ฟเวอร์ภายนอก ก่อให้เกิดอุปสรรคสำคัญสำหรับการนำไปใช้อย่างแพร่หลายและปลอดภัยในสถานพยาบาล ซึ่งความเป็นส่วนตัวของผู้ป่วยไม่ใช่แค่ทางเลือก แต่เป็นข้อบังคับ คำถามสำคัญยังคงค้างคาอยู่: โลกของ AI โอเพนซอร์สที่กำลังเติบโตจะสามารถรับมือกับความท้าทายนี้ได้หรือไม่ โดยนำเสนอพลังที่เทียบเท่ากันโดยไม่กระทบต่อการควบคุมและความลับ?
ผลการวิจัยล่าสุดที่มาจากสถาบันอันทรงเกียรติอย่าง Harvard Medical School (HMS) ชี้ให้เห็นว่าคำตอบคือ ‘ใช่’ อย่างชัดเจน ซึ่งถือเป็นจุดเปลี่ยนที่อาจเกิดขึ้นในการประยุกต์ใช้ AI ในสภาพแวดล้อมทางคลินิก นักวิจัยได้เปรียบเทียบโมเดลโอเพนซอร์สชั้นนำกับคู่แข่งที่เป็นกรรมสิทธิ์ที่มีชื่อเสียงอย่างพิถีพิถัน เผยให้เห็นผลลัพธ์ที่อาจทำให้การเข้าถึงเครื่องมือช่วยวินิจฉัยที่ล้ำสมัยเป็นประชาธิปไตยมากขึ้น
ผู้ท้าชิงรายใหม่ก้าวเข้าสู่สังเวียนการวินิจฉัย
ในการศึกษาที่ได้รับความสนใจจากทั้งชุมชนการแพทย์และเทคโนโลยี นักวิจัยจาก HMS ได้นำโมเดลโอเพนซอร์ส Llama 3.1 405B มาเปรียบเทียบกับ GPT-4 ที่น่าเกรงขาม สนามทดสอบคือชุดกรณีศึกษาทางการแพทย์ที่ท้าทายจำนวน 70 กรณีที่คัดสรรมาอย่างดี เหล่านี้ไม่ใช่สถานการณ์ปกติ แต่เป็นปริศนาการวินิจฉัยที่ซับซ้อนซึ่งมักพบในการปฏิบัติทางคลินิก วัตถุประสงค์ชัดเจน: เพื่อประเมินความเฉียบแหลมในการวินิจฉัยของโมเดล AI แต่ละตัวแบบตัวต่อตัว
ผลลัพธ์ที่ตีพิมพ์เมื่อเร็วๆ นี้ น่าทึ่งมาก โมเดล Llama 3.1 405B ซึ่งเปิดให้ผู้ใช้ดาวน์โหลด ตรวจสอบ และแก้ไขได้อย่างอิสระ แสดงให้เห็นถึงความแม่นยำในการวินิจฉัยที่เทียบเท่า และในบางตัวชี้วัดยังเหนือกว่า GPT-4 อีกด้วย โดยเฉพาะอย่างยิ่ง เมื่อประเมินความถูกต้องของข้อเสนอแนะการวินิจฉัย เบื้องต้น ที่นำเสนอโดยแต่ละโมเดล Llama 3.1 405B มีความได้เปรียบ นอกจากนี้ เมื่อพิจารณาถึง การวินิจฉัยขั้นสุดท้าย ที่เสนอหลังจากประมวลผลรายละเอียดของกรณีศึกษาแล้ว ผู้ท้าชิงโอเพนซอร์สก็พิสูจน์ความสามารถของตนอีกครั้งเมื่อเทียบกับเกณฑ์มาตรฐานที่เป็นที่ยอมรับ
ความสำเร็จนี้มีความสำคัญไม่ใช่เพียงแค่ประสิทธิภาพเท่านั้น แต่ยังรวมถึงสิ่งที่มันเป็นตัวแทนด้วย เป็นครั้งแรกที่เครื่องมือโอเพนซอร์สที่เข้าถึงได้ง่ายและโปร่งใสได้พิสูจน์แล้วว่าสามารถทำงานในระดับสูงเช่นเดียวกับระบบปิดชั้นนำในงานที่ท้าทายของการวินิจฉัยทางการแพทย์โดยอิงจากกรณีศึกษา Arjun K. Manrai ’08 ศาสตราจารย์ HMS ซึ่งดูแลการวิจัย อธิบายถึงความเท่าเทียมกันในประสิทธิภาพว่า ‘น่าทึ่งทีเดียว’ โดยเฉพาะอย่างยิ่งเมื่อพิจารณาจากบริบททางประวัติศาสตร์
ข้อได้เปรียบของโอเพนซอร์ส: ปลดล็อกความเป็นส่วนตัวของข้อมูลและการปรับแต่ง
ตัวเปลี่ยนเกมที่แท้จริงที่เน้นย้ำโดยการศึกษาของ Harvard อยู่ที่ความแตกต่างพื้นฐานระหว่างโมเดลโอเพนซอร์สและโมเดลที่เป็นกรรมสิทธิ์: การเข้าถึงและการควบคุม โมเดลที่เป็นกรรมสิทธิ์เช่น GPT-4 โดยทั่วไปต้องการให้ผู้ใช้ส่งข้อมูลไปยังเซิร์ฟเวอร์ของผู้ให้บริการเพื่อประมวลผล ในด้านการดูแลสุขภาพ สิ่งนี้ทำให้เกิดสัญญาณเตือนทันที ข้อมูลผู้ป่วย – อาการ ประวัติการรักษา ผลการตรวจ – เป็นข้อมูลที่ละเอียดอ่อนที่สุดเท่าที่จะจินตนาการได้ ซึ่งได้รับการคุ้มครองโดยกฎระเบียบที่เข้มงวด เช่น HIPAA ในสหรัฐอเมริกา แนวโน้มของการส่งข้อมูลนี้ออกนอกเครือข่ายที่ปลอดภัยของโรงพยาบาล แม้ว่าจะมีประโยชน์ที่เป็นไปได้จากการวิเคราะห์ AI ขั้นสูง ก็เป็นอุปสรรคสำคัญ
โมเดลโอเพนซอร์ส เช่น Llama 3.1 405B เปลี่ยนแปลงพลวัตนี้โดยพื้นฐาน เนื่องจากโค้ดและพารามิเตอร์ของโมเดลเปิดเผยต่อสาธารณะ สถาบันต่างๆ จึงสามารถดาวน์โหลดและปรับใช้ ภายในโครงสร้างพื้นฐานที่ปลอดภัยของตนเอง ได้
- อธิปไตยของข้อมูล (Data Sovereignty): โรงพยาบาลสามารถรัน AI ทั้งหมดบนเซิร์ฟเวอร์ท้องถิ่นหรือคลาวด์ส่วนตัวของตนเองได้ ข้อมูลผู้ป่วยไม่จำเป็นต้องออกจากสภาพแวดล้อมที่ได้รับการป้องกันของสถาบัน ซึ่งช่วยขจัดข้อกังวลด้านความเป็นส่วนตัวที่เกี่ยวข้องกับการส่งข้อมูลภายนอกได้อย่างมีประสิทธิภาพ แนวคิดนี้มักถูกเรียกว่าการนำ ‘โมเดลไปยังข้อมูล’ (model to the data) แทนที่จะส่ง ‘ข้อมูลไปยังโมเดล’ (data to the model)
- ความปลอดภัยที่เพิ่มขึ้น (Enhanced Security): การเก็บกระบวนการไว้ภายในองค์กรช่วยลดพื้นที่การโจมตีสำหรับการละเมิดข้อมูลที่อาจเกิดขึ้นซึ่งเกี่ยวข้องกับผู้ให้บริการ AI บุคคลที่สามได้อย่างมาก การควบคุมสภาพแวดล้อมการทำงานยังคงอยู่กับสถาบันดูแลสุขภาพทั้งหมด
- ความโปร่งใสและการตรวจสอบได้ (Transparency and Auditability): โมเดลโอเพนซอร์สช่วยให้นักวิจัยและแพทย์สามารถตรวจสอบสถาปัตยกรรมของโมเดลได้ และในระดับหนึ่ง เข้าใจกระบวนการตัดสินใจได้ดีกว่าระบบที่เป็นกรรมสิทธิ์ที่ไม่โปร่งใส ความโปร่งใสนี้สามารถส่งเสริมความไว้วางใจที่มากขึ้นและอำนวยความสะดวกในการแก้ไขข้อบกพร่องหรือการปรับปรุง
Thomas A. Buckley นักศึกษาปริญญาเอกในโครงการ AI in Medicine ของ Harvard และผู้เขียนคนแรกของการศึกษา เน้นย้ำถึงข้อได้เปรียบที่สำคัญนี้ “โมเดลโอเพนซอร์สปลดล็อกการวิจัยทางวิทยาศาสตร์ใหม่ๆ เพราะสามารถนำไปปรับใช้ในเครือข่ายของโรงพยาบาลเองได้” เขากล่าว ความสามารถนี้ก้าวข้ามศักยภาพทางทฤษฎีและเปิดประตูสู่การประยุกต์ใช้ที่ใช้งานได้จริงและปลอดภัย
นอกจากนี้ ลักษณะโอเพนซอร์สยังช่วยให้สามารถ ปรับแต่ง (customization) ได้ในระดับที่ไม่เคยมีมาก่อน โรงพยาบาลและกลุ่มวิจัยสามารถปรับแต่งโมเดลพื้นฐานที่ทรงพลังเหล่านี้โดยใช้ข้อมูลผู้ป่วยเฉพาะของตนเองได้แล้ว
- การปรับแต่งเฉพาะประชากร (Population-Specific Tuning): โมเดลสามารถปรับให้สะท้อนถึงข้อมูลประชากร โรคที่แพร่หลาย และความท้าทายด้านสุขภาพที่เป็นเอกลักษณ์ของประชากรในท้องถิ่นหรือภูมิภาคที่ระบบโรงพยาบาลให้บริการได้ดีขึ้น
- การปรับให้สอดคล้องกับระเบียบปฏิบัติ (Protocol Alignment): พฤติกรรมของ AI สามารถปรับเปลี่ยนให้สอดคล้องกับแนวทางการวินิจฉัย ระเบียบการรักษา หรือมาตรฐานการรายงานเฉพาะของโรงพยาบาลได้
- การใช้งานเฉพาะทาง (Specialized Applications): นักวิจัยสามารถพัฒนารุ่นของโมเดลที่มีความเชี่ยวชาญสูงซึ่งปรับให้เหมาะกับขอบเขตทางการแพทย์เฉพาะ เช่น การสนับสนุนการแปลผลการวิเคราะห์ภาพรังสีวิทยา การคัดกรองรายงานพยาธิวิทยา หรือการระบุรูปแบบโรคหายาก
Buckley อธิบายเพิ่มเติมเกี่ยวกับนัยนี้: “ตอนนี้นักวิจัยสามารถใช้ AI ทางคลินิกที่ล้ำสมัยโดยตรงกับข้อมูลผู้ป่วย… โรงพยาบาลสามารถใช้ข้อมูลผู้ป่วยเพื่อพัฒนาโมเดลที่กำหนดเองได้ (ตัวอย่างเช่น เพื่อให้สอดคล้องกับประชากรผู้ป่วยของตนเอง)” ศักยภาพสำหรับเครื่องมือ AI ที่สร้างขึ้นตามความต้องการ ซึ่งพัฒนาขึ้นอย่างปลอดภัยภายในองค์กร ถือเป็นก้าวกระโดดที่สำคัญ
บริบท: คลื่นกระแทกของ AI ในกรณีที่ซับซ้อน
การตรวจสอบ Llama 3.1 405B ของทีม Harvard ไม่ได้ดำเนินการในสุญญากาศ ส่วนหนึ่งได้รับแรงบันดาลใจจากระลอกคลื่นที่เกิดจากการวิจัยก่อนหน้านี้ โดยเฉพาะอย่างยิ่งงานวิจัยที่น่าสังเกตในปี 2023 การศึกษานั้นแสดงให้เห็นถึงความเชี่ยวชาญที่น่าประหลาดใจของโมเดล GPT ในการจัดการกับกรณีทางคลินิกที่น่าฉงนที่สุดบางกรณีที่ตีพิมพ์ในวารสารอันทรงเกียรติ New England Journal of Medicine (NEJM) “Case Records of the Massachusetts General Hospital” ของ NEJM เหล่านี้เป็นตำนานในแวดวงการแพทย์ – เป็นกรณีที่ซับซ้อน มักจะทำให้งงงวย ซึ่งท้าทายแม้กระทั่งแพทย์ผู้มีประสบการณ์
“งานวิจัยชิ้นนี้ได้รับความสนใจอย่างมาก และโดยพื้นฐานแล้วแสดงให้เห็นว่าแบบจำลองภาษาขนาดใหญ่นี้ ChatGPT สามารถแก้ไขกรณีทางคลินิกที่ท้าทายอย่างเหลือเชื่อเหล่านี้ได้ ซึ่งทำให้ผู้คนตกตะลึง” Buckley เล่า ความคิดที่ว่า AI ซึ่งโดยพื้นฐานแล้วเป็นเครื่องจับคู่รูปแบบที่ซับซ้อนซึ่งได้รับการฝึกฝนจากข้อความจำนวนมหาศาล สามารถไขปริศนาการวินิจฉัยที่มักต้องใช้สัญชาตญาณทางคลินิกและประสบการณ์อย่างลึกซึ้งนั้น ทั้งน่าทึ่งและสำหรับบางคนก็น่ากังวล
“กรณีเหล่านี้ยากอย่างฉาวโฉ่” Buckley กล่าวเสริม “เป็นกรณีที่ท้าทายที่สุดบางกรณีที่พบที่ Mass General Hospital ดังนั้นจึงน่ากลัวสำหรับแพทย์ และก็น่ากลัวไม่แพ้กันเมื่อโมเดล AI สามารถทำสิ่งเดียวกันได้” การสาธิตก่อนหน้านี้เน้นย้ำถึงศักยภาพดิบของ LLMs ในทางการแพทย์ แต่ยังขยายความเร่งด่วนในการแก้ไขปัญหาความเป็นส่วนตัวและการควบคุมที่มีอยู่ในระบบที่เป็นกรรมสิทธิ์ หาก AI มีความสามารถขนาดนี้ การทำให้แน่ใจว่าสามารถใช้งานได้อย่างปลอดภัยและมีจริยธรรมกับข้อมูลผู้ป่วยจริงจึงกลายเป็นสิ่งสำคัญยิ่ง
การเปิดตัวโมเดล Llama 3.1 405B ของ Meta ถือเป็นจุดเปลี่ยนที่อาจเกิดขึ้น ขนาดที่แท้จริงของโมเดล – บ่งชี้ด้วย “405B” ซึ่งหมายถึงพารามิเตอร์ 405 พันล้านตัว (ตัวแปรที่โมเดลปรับระหว่างการฝึกเพื่อทำการคาดการณ์) – ส่งสัญญาณถึงระดับความซับซ้อนใหม่ภายในชุมชนโอเพนซอร์ส ขนาดมหึมานี้ชี้ให้เห็นว่ามันอาจมีความซับซ้อนที่จำเป็นในการแข่งขันกับประสิทธิภาพของโมเดลที่เป็นกรรมสิทธิ์ระดับบนสุดเช่น GPT-4 “มันเป็นครั้งแรกที่เราพิจารณาว่า โอ้ บางทีอาจมีบางอย่างที่แตกต่างกันจริงๆ เกิดขึ้นในโมเดลโอเพนซอร์ส” Buckley กล่าว โดยอธิบายถึงแรงจูงใจในการนำ Llama 3.1 405B มาทดสอบในขอบเขตทางการแพทย์
การวางแผนอนาคต: การวิจัยและการบูรณาการในโลกแห่งความเป็นจริง
การยืนยันว่าโมเดลโอเพนซอร์สที่มีประสิทธิภาพสูงสามารถใช้งานได้สำหรับงานทางการแพทย์ที่ละเอียดอ่อนมีความหมายอย่างลึกซึ้ง ดังที่ศาสตราจารย์ Manrai เน้นย้ำ การวิจัยนี้ “ปลดล็อกและเปิดการศึกษาและการทดลองใหม่ๆ มากมาย” ความสามารถในการทำงานโดยตรงกับข้อมูลผู้ป่วยภายในเครือข่ายโรงพยาบาลที่ปลอดภัย โดยไม่มีอุปสรรคด้านจริยธรรมและโลจิสติกส์ของการแบ่งปันข้อมูลภายนอก ช่วยขจัดปัญหาคอขวดที่สำคัญสำหรับการวิจัย AI ทางคลินิก
ลองจินตนาการถึงความเป็นไปได้:
- การสนับสนุนการตัดสินใจแบบเรียลไทม์ (Real-time Decision Support): เครื่องมือ AI ที่รวมเข้ากับระบบบันทึกสุขภาพอิเล็กทรอนิกส์ (EHR) โดยตรง วิเคราะห์ข้อมูลผู้ป่วยที่เข้ามาแบบเรียลไทม์เพื่อแนะนำการวินิจฉัยที่เป็นไปได้ แจ้งเตือนค่าห้องปฏิบัติการที่สำคัญ หรือระบุปฏิกิริยาระหว่างยาที่อาจเกิดขึ้น ทั้งหมดนี้ในขณะที่ข้อมูลยังคงปลอดภัยภายในระบบของโรงพยาบาล
- วงจรการวิจัยที่เร่งขึ้น (Accelerated Research Cycles): นักวิจัยสามารถทดสอบและปรับปรุงสมมติฐาน AI ได้อย่างรวดเร็วโดยใช้ชุดข้อมูลขนาดใหญ่ในท้องถิ่น ซึ่งอาจเร่งการค้นพบตัวบ่งชี้การวินิจฉัยใหม่หรือประสิทธิภาพการรักษา
- การพัฒนาเครื่องมือเฉพาะทางขั้นสูง (Development of Hyper-Specialized Tools): ทีมสามารถมุ่งเน้นไปที่การสร้างผู้ช่วย AI สำหรับสาขาการแพทย์เฉพาะทางหรือขั้นตอนที่ซับซ้อนเฉพาะ โดยฝึกฝนจากข้อมูลภายในที่เกี่ยวข้องอย่างยิ่ง
กระบวนทัศน์เปลี่ยนไป ดังที่ Manrai กล่าวไว้อย่างกระชับ: “ด้วยโมเดลโอเพนซอร์สเหล่านี้ คุณสามารถนำโมเดลไปยังข้อมูลได้ แทนที่จะส่งข้อมูลของคุณไปยังโมเดล” การทำให้เป็นท้องถิ่นนี้ช่วยเพิ่มขีดความสามารถให้กับสถาบันดูแลสุขภาพและนักวิจัย ส่งเสริมนวัตกรรมในขณะที่รักษามาตรฐานความเป็นส่วนตัวที่เข้มงวด
องค์ประกอบของมนุษย์ที่ขาดไม่ได้: AI ในฐานะผู้ช่วยนักบิน ไม่ใช่กัปตัน
แม้จะมีประสิทธิภาพที่น่าประทับใจและศักยภาพที่มีแนวโน้มของเครื่องมือ AI เช่น Llama 3.1 405B นักวิจัยที่เกี่ยวข้องก็รีบระงับความตื่นเต้นด้วยความเป็นจริงที่สำคัญ ปัญญาประดิษฐ์ ไม่ว่าจะซับซ้อนเพียงใด ยังไม่ใช่ – และอาจไม่มีวันเป็น – สิ่งทดแทนแพทย์ที่เป็นมนุษย์ ทั้ง Manrai และ Buckley เน้นย้ำว่าการกำกับดูแลโดยมนุษย์ยังคงมีความสำคัญอย่างยิ่ง
โมเดล AI รวมถึง LLMs มีข้อจำกัดโดยธรรมชาติ:
- ขาดความเข้าใจที่แท้จริง (Lack of True Understanding): พวกมันเก่งในการจดจำรูปแบบและการสังเคราะห์ข้อมูลตามข้อมูลการฝึกอบรม แต่ขาดสัญชาตญาณทางคลินิกที่แท้จริง สามัญสำนึก และความสามารถในการเข้าใจความแตกต่างของบริบทชีวิตของผู้ป่วย สภาวะทางอารมณ์ หรือสัญญาณที่ไม่ใช่คำพูด
- ศักยภาพของอคติ (Potential for Bias): โมเดล AI สามารถสืบทอดอคติที่มีอยู่ในข้อมูลการฝึกอบรม ซึ่งอาจนำไปสู่คำแนะนำหรือการวินิจฉัยที่ลำเอียง โดยเฉพาะอย่างยิ่งสำหรับกลุ่มผู้ป่วยที่ด้อยโอกาส โมเดลโอเพนซอร์สมีข้อได้เปรียบที่เป็นไปได้ที่นี่ เนื่องจากข้อมูลและกระบวนการฝึกอบรมบางครั้งสามารถตรวจสอบได้อย่างใกล้ชิดมากขึ้น แต่ความเสี่ยงยังคงมีอยู่
- ‘ภาพหลอน’ และข้อผิดพลาด (“Hallucinations” and Errors): LLMs เป็นที่ทราบกันดีว่าบางครั้งสร้างข้อมูลที่ฟังดูน่าเชื่อถือแต่ไม่ถูกต้อง (เรียกว่า ‘ภาพหลอน’) ในบริบททางการแพทย์ ข้อผิดพลาดดังกล่าวอาจส่งผลร้ายแรง
- ไม่สามารถจัดการกับความแปลกใหม่ (Inability to Handle Novelty): แม้ว่าพวกมันจะสามารถประมวลผลรูปแบบที่รู้จักได้ แต่ AI อาจประสบปัญหากับการนำเสนอโรคที่แปลกใหม่อย่างแท้จริง หรือการรวมกันของอาการที่ไม่เหมือนใครซึ่งไม่ได้แสดงไว้อย่างดีในข้อมูลการฝึกอบรม
ดังนั้น บทบาทของแพทย์และบุคลากรทางการแพทย์อื่นๆ ไม่ได้ลดลง แต่กลับเปลี่ยนแปลงไป พวกเขากลายเป็นผู้ตรวจสอบ ผู้อธิบายความ และผู้มีอำนาจตัดสินใจขั้นสุดท้ายที่สำคัญ “ผู้ร่วมงานทางคลินิกของเรามีความสำคัญอย่างยิ่ง เพราะพวกเขาสามารถอ่านสิ่งที่โมเดลสร้างขึ้นและประเมินในเชิงคุณภาพได้” Buckley อธิบาย ผลลัพธ์ของ AI เป็นเพียงข้อเสนอแนะ ชิ้นส่วนของข้อมูลที่จะต้องได้รับการประเมินอย่างมีวิจารณญาณภายในภาพรวมทางคลินิกที่กว้างขึ้น “ผลลัพธ์เหล่านี้จะน่าเชื่อถือก็ต่อเมื่อคุณสามารถให้แพทย์ประเมินได้”
Manrai สะท้อนความรู้สึกนี้ โดยมองว่า AI ไม่ใช่ผู้วินิจฉัยอัตโนมัติ แต่เป็นผู้ช่วยที่มีค่า ในข่าวประชาสัมพันธ์ก่อนหน้านี้ เขาได้วางกรอบเครื่องมือเหล่านี้ว่าเป็น “ผู้ช่วยนักบินที่ทรงคุณค่าสำหรับแพทย์ที่มีงานยุ่ง” หาก “ใช้อย่างชาญฉลาดและรวมเข้ากับโครงสร้างพื้นฐานด้านสุขภาพในปัจจุบันอย่างมีความรับผิดชอบ” กุญแจสำคัญอยู่ที่การบูรณาการอย่างรอบคอบ โดยที่ AI ช่วยเพิ่มขีดความสามารถของมนุษย์ – อาจโดยการสรุปประวัติผู้ป่วยจำนวนมากอย่างรวดเร็ว แนะนำการวินิจฉัยแยกโรคสำหรับกรณีที่ซับซ้อน หรือแจ้งเตือนความเสี่ยงที่อาจเกิดขึ้น – แทนที่จะพยายามเข้ามาแทนที่การตัดสินใจของแพทย์
“แต่ยังคงเป็นสิ่งสำคัญที่แพทย์จะต้องช่วยขับเคลื่อนความพยายามเหล่านี้เพื่อให้แน่ใจว่า AI ทำงานเพื่อพวกเขา” Manrai เตือน การพัฒนาและการปรับใช้ AI ทางคลินิกต้องเป็นความพยายามร่วมกัน โดยได้รับคำแนะนำจากความต้องการและความเชี่ยวชาญของผู้ที่อยู่ในแนวหน้าของการดูแลผู้ป่วย เพื่อให้มั่นใจว่าเทคโนโลยีจะให้บริการ ไม่ใช่กำหนดแนวทางการปฏิบัติทางการแพทย์ การศึกษาของ Harvard แสดงให้เห็นว่าเครื่องมือที่ทรงพลังและปลอดภัยกำลังมีให้ใช้งาน ขั้นตอนสำคัญต่อไปคือการควบคุมใช้งานอย่างมีความรับผิดชอบ