ทีมนักวิจัยชาวจีนได้แสดงความกังวลเกี่ยวกับการบูรณาการ DeepSeek ซึ่งเป็นแบบจำลองปัญญาประดิษฐ์ เข้าสู่สถานพยาบาลอย่างรวดเร็ว การวิเคราะห์ของพวกเขาเน้นถึงอันตรายที่อาจเกิดขึ้นต่อความปลอดภัยทางคลินิกและความเป็นส่วนตัวของข้อมูล โดยเฉพาะอย่างยิ่งเนื่องจากการใช้แบบจำลองโอเพนซอร์สราคาประหยัดของสตาร์ทอัพอย่างแพร่หลาย
เมื่อต้นเดือนมีนาคม แบบจำลองภาษาขนาดใหญ่ (LLMs) ของ DeepSeek ถูกนำไปใช้ในโรงพยาบาลจีนอย่างน้อย 300 แห่งแล้ว เพื่อใช้ในการวินิจฉัยทางคลินิกและการสนับสนุนการตัดสินใจทางการแพทย์
งานวิจัยที่ตีพิมพ์ใน Journal of the American Medical Association (JAMA) ชี้ให้เห็นถึงแนวโน้มของ DeepSeek ในการสร้างผลลัพธ์ที่ดูน่าเชื่อถือแต่ไม่ถูกต้องตามข้อเท็จจริง แม้ว่า AI จะมีความสามารถในการให้เหตุผลที่แข็งแกร่ง แต่สิ่งนี้อาจสร้างความเสี่ยงทางคลินิกที่สำคัญได้ Wong Tien Yin หัวหน้าผู้ก่อตั้ง Tsinghua Medicine ซึ่งเป็นหน่วยงานวิจัยของมหาวิทยาลัย Tsinghua ในปักกิ่ง เป็นสมาชิกของทีมวิจัย
ข้อควรระวังนี้ขัดแย้งกับความกระตือรือร้นที่มีต่อ DeepSeek ในประเทศจีน สตาร์ทอัพซึ่งได้รับการยกย่องในด้านโมเดล V3 และ R1 ที่ราคาไม่แพงและมีประสิทธิภาพสูง กลายเป็นสัญลักษณ์ของความก้าวหน้าด้าน AI ของจีน
Wong และผู้เขียนร่วมของเขาเน้นย้ำถึงความเสี่ยงที่ผู้เชี่ยวชาญด้านการดูแลสุขภาพอาจพึ่งพาหรือยอมรับผลลัพธ์ของ DeepSeek มากเกินไป โดยไม่ได้ประเมินอย่างมีวิจารณญาณ ซึ่งอาจนำไปสู่ข้อผิดพลาดในการวินิจฉัยหรือแผนการรักษาที่ลำเอียง ในทางกลับกัน แพทย์ที่ยังคงระมัดระวังจะต้องเผชิญกับภาระเพิ่มเติมในการตรวจสอบผลลัพธ์ของ AI ภายใต้ข้อจำกัดด้านเวลา
ความเสี่ยงด้านความปลอดภัยในการใช้งาน ณ สถานที่จริง
แม้ว่าโรงพยาบาลมักจะเลือกใช้โมเดล DeepSeek แบบส่วนตัว ณ สถานที่จริง เพื่อลดความเสี่ยงที่เกี่ยวข้องกับความปลอดภัยและความเป็นส่วนตัว แต่วิธีการนี้ก็ก่อให้เกิดความซับซ้อนในตัวเอง ตามที่นักวิจัยระบุว่า “เป็นการเปลี่ยนความรับผิดชอบด้านความปลอดภัยไปยังสถานพยาบาลแต่ละแห่ง” ซึ่งหลายแห่งอาจขาดการป้องกันทางไซเบอร์ที่จำเป็น
นักวิจัยยังตั้งข้อสังเกตอีกว่าการรวมกันของโครงสร้างพื้นฐานด้านการดูแลปฐมภูมิที่ไม่เพียงพอและการใช้สมาร์ทโฟนอย่างแพร่หลายในประเทศจีน สร้าง “พายุที่สมบูรณ์แบบ” ซึ่งทำให้ความกังวลเกี่ยวกับความปลอดภัยทางคลินิกทวีความรุนแรงยิ่งขึ้น
นักวิจัยระบุว่า “ประชากรที่ด้อยโอกาสซึ่งมีความต้องการทางการแพทย์ที่ซับซ้อน ขณะนี้สามารถเข้าถึงคำแนะนำด้านสุขภาพที่ขับเคลื่อนด้วย AI ได้อย่างที่ไม่เคยมีมาก่อน แต่โดยทั่วไปแล้วขาดการกำกับดูแลทางคลินิกที่จำเป็นสำหรับการนำไปใช้อย่างปลอดภัย”
การตรวจสอบ LLMs ในสถานพยาบาล
บทความนี้มีส่วนช่วยในการสนทนาที่เพิ่มขึ้นเกี่ยวกับการใช้ LLMs ในสถานพยาบาล องค์กรอื่นๆ ในประเทศจีนก็เริ่มตรวจสอบ LLMs เมื่อการนำไปใช้เร่งตัวขึ้นเช่นกัน บทความอีกฉบับหนึ่งที่ตีพิมพ์เมื่อเดือนที่แล้วโดยนักวิจัยจาก Chinese University of Hong Kong ตรวจสอบช่องโหว่ด้านความปลอดภัยทางไซเบอร์ของ AI agents และพบว่า AI agents ที่ขับเคลื่อนโดย LLMs ที่ใช้กันทั่วไปมีความเสี่ยงต่อการโจมตีต่างๆ โดย DeepSeek-R1 มีความอ่อนไหวมากที่สุด
จีนได้เร่งการนำ LLMs มาใช้ในการดูแลสุขภาพท่ามกลางการเพิ่มขึ้นของเทคโนโลยีgenerative AI เมื่อเดือนที่แล้ว Ant Group ซึ่งเป็นบริษัทเทคโนโลยีทางการเงินของจีน ได้เปิดตัว AI medical agents เกือบ 100 รายการบนแอป Alipay Agents เหล่านี้ได้รับการสนับสนุนโดยผู้เชี่ยวชาญทางการแพทย์จากโรงพยาบาลชั้นนำของจีน
Tairex สตาร์ทอัพที่บ่มเพาะที่มหาวิทยาลัย Tsinghua เริ่มการทดสอบภายในแพลตฟอร์มโรงพยาบาลเสมือนในเดือนพฤศจิกายน แพลตฟอร์มนี้มีแพทย์ AI 42 คน ครอบคลุม 21 แผนก รวมถึงแผนกฉุกเฉิน ระบบทางเดินหายใจ กุมารเวชศาสตร์ และโรคหัวใจ บริษัทเปิดเผยแผนการที่จะเปิดตัวแพลตฟอร์มสู่สาธารณชนในปลายปีนี้
เจาะลึกข้อกังวลเกี่ยวกับ AI ในการดูแลสุขภาพ
การบูรณาการ AI อย่างรวดเร็ว โดยเฉพาะอย่างยิ่งแบบจำลองภาษาขนาดใหญ่ (LLMs) เช่น DeepSeek เข้าสู่สถานพยาบาลในประเทศจีน ได้จุดประกายการถกเถียงระหว่างผู้ที่สนับสนุนประโยชน์ที่เป็นไปได้และผู้ที่เรียกร้องให้ระมัดระวัง แม้ว่า AI จะนำเสนอความเป็นไปได้ที่น่าตื่นเต้นสำหรับการปรับปรุงการวินิจฉัย การรักษา และการเข้าถึงการดูแล แต่มีหลายปัจจัยที่รับประกันแนวทางที่รอบคอบมากขึ้น ข้อกังวลที่นักวิจัยหยิบยกขึ้นมาเน้นถึงความซับซ้อนและข้อผิดพลาดที่อาจเกิดขึ้นจากการปรับใช้ AI ในโดเมนที่สำคัญเช่นนี้
หนึ่งในข้อกังวลหลักคือความน่าเชื่อถือของข้อมูลที่สร้างโดย AI LLMs ได้รับการฝึกฝนจากชุดข้อมูลขนาดใหญ่ แต่ชุดข้อมูลเหล่านี้อาจมีอคติ ความไม่ถูกต้อง หรือข้อมูลที่ล้าสมัย ด้วยเหตุนี้ แบบจำลอง AI จึงอาจสร้างผลลัพธ์ที่ดูสมเหตุสมผล แต่จริงๆ แล้วไม่ถูกต้อง ซึ่งก่อให้เกิดความเสี่ยงอย่างมากในสถานพยาบาล ซึ่งข้อผิดพลาดในการวินิจฉัยหรือคำแนะนำในการรักษาที่ไม่ถูกต้องอาจส่งผลร้ายแรงต่อผู้ป่วยได้
ความเสี่ยงของการพึ่งพา AI มากเกินไป
อีกประเด็นที่น่ากังวลคือศักยภาพที่ผู้เชี่ยวชาญด้านการดูแลสุขภาพจะพึ่งพา AI มากเกินไปและสูญเสียทักษะการคิดเชิงวิพากษ์ หากแพทย์และพยาบาลเริ่มปฏิบัติต่อผลลัพธ์ของ AI ว่าเป็นสิ่งที่ถูกต้องโดยไม่มีข้อผิดพลาด พวกเขาอาจไม่สามารถประเมินสภาพของผู้ป่วยได้อย่างเพียงพอ มองข้ามรายละเอียดที่สำคัญ หรือตั้งคำถามกับคำแนะนำของ AI สิ่งนี้สามารถนำไปสู่ข้อผิดพลาดในการวินิจฉัย การรักษาที่ไม่เหมาะสม และการลดลงของคุณภาพการดูแล
นอกจากนี้ การนำ AI ไปใช้อย่างแพร่หลายยังก่อให้เกิดคำถามทางจริยธรรมและสังคมเกี่ยวกับความเป็นส่วนตัวของข้อมูล อคติของอัลกอริทึม และศักยภาพในการเคลื่อนย้ายงาน ผู้ป่วยอาจกังวลเกี่ยวกับความปลอดภัยและการรักษาความลับของข้อมูลสุขภาพของพวกเขา โดยเฉพาะอย่างยิ่งหากมีการใช้เพื่อฝึกอบรมแบบจำลอง AI อคติของอัลกอริทึมยังสามารถคงอยู่และทำให้ความเหลื่อมล้ำด้านสุขภาพที่มีอยู่รุนแรงขึ้น หากแบบจำลอง AI ได้รับการฝึกฝนจากข้อมูลที่ไม่สะท้อนถึงความหลากหลายของประชากรอย่างแม่นยำ
สร้างสมดุลระหว่างนวัตกรรมและความระมัดระวัง
เพื่อลดความเสี่ยงเหล่านี้ การนำ AI มาใช้ในการดูแลสุขภาพ จำเป็นอย่างยิ่งที่จะต้องนำแนวทางที่ระมัดระวังและมีความรับผิดชอบมากขึ้นมาใช้ ซึ่งรวมถึง:
- การทดสอบและการตรวจสอบความถูกต้องอย่างเข้มงวด: ก่อนที่จะปรับใช้แบบจำลอง AI ในสถานพยาบาล ควรทดสอบและตรวจสอบความถูกต้องอย่างละเอียดในกลุ่มประชากรที่หลากหลาย เพื่อให้มั่นใจถึงความถูกต้อง ความน่าเชื่อถือ และความเป็นธรรม
- การกำกับดูแลโดยมนุษย์: ควรใช้ AI เป็นเครื่องมือในการเสริม ไม่ใช่แทนที่ การตัดสินใจของมนุษย์ ผู้เชี่ยวชาญด้านการดูแลสุขภาพควรตรวจสอบและตรวจสอบผลลัพธ์ของ AI เสมอก่อนทำการตัดสินใจทางคลินิก
- ความโปร่งใสและการอธิบายได้: แบบจำลอง AI ควรมีความโปร่งใสและอธิบายได้ เพื่อให้ผู้เชี่ยวชาญด้านการดูแลสุขภาพสามารถเข้าใจวิธีการที่พวกเขาได้รับคำแนะนำ ซึ่งสามารถช่วยสร้างความไว้วางใจใน AI และระบุข้อผิดพลาดหรืออคติที่อาจเกิดขึ้นได้
- ความเป็นส่วนตัวและความปลอดภัยของข้อมูล: ควรมีมาตรการป้องกันที่แข็งแกร่งเพื่อปกป้องความเป็นส่วนตัวและความปลอดภัยของข้อมูลผู้ป่วย ซึ่งรวมถึงการขอความยินยอมโดยแจ้งให้ทราบ การใช้มาตรการรักษาความปลอดภัยที่เข้มงวด และการปฏิบัติตามกฎระเบียบด้านการปกป้องข้อมูล
- การศึกษาและการฝึกอบรม: ผู้เชี่ยวชาญด้านการดูแลสุขภาพควรได้รับการฝึกอบรมอย่างครอบคลุมเกี่ยวกับวิธีการใช้ AI อย่างมีประสิทธิภาพและมีความรับผิดชอบ ซึ่งรวมถึงการทำความเข้าใจข้อจำกัดของ AI การตระหนักถึงอคติที่อาจเกิดขึ้น และการประเมินผลลัพธ์ของ AI อย่างมีวิจารณญาณ
การจัดการกับช่องโหว่ด้านความปลอดภัยทางไซเบอร์
ช่องโหว่ด้านความปลอดภัยทางไซเบอร์ของ AI agents ดังที่นักวิจัยจาก Chinese University of Hong Kong เน้นย้ำ ก่อให้เกิดภัยคุกคามที่สำคัญต่อความสมบูรณ์และความปลอดภัยของระบบการดูแลสุขภาพ หากแบบจำลอง AI มีความเสี่ยงต่อการโจมตี ผู้ไม่หวังดีอาจบิดเบือนผลลัพธ์ของ AI เข้าถึงข้อมูลผู้ป่วยที่ละเอียดอ่อน หรือรบกวนการดำเนินงานด้านการดูแลสุขภาพ
เพื่อจัดการกับช่องโหว่เหล่านี้ การใช้มาตรการรักษาความปลอดภัยทางไซเบอร์ที่แข็งแกร่ง เช่น:
- แนวทางปฏิบัติในการเขียนโค้ดที่ปลอดภัย: ควรพัฒนาแบบจำลอง AI โดยใช้แนวทางปฏิบัติในการเขียนโค้ดที่ปลอดภัย เพื่อป้องกันช่องโหว่ เช่น SQL injection, cross-site scripting และ buffer overflows
- การตรวจสอบความปลอดภัยเป็นประจำ: ระบบ AI ควรได้รับการตรวจสอบความปลอดภัยเป็นประจำ เพื่อระบุและจัดการกับช่องโหว่ที่อาจเกิดขึ้น
- ระบบตรวจจับและป้องกันการบุกรุก: ควรรวมระบบตรวจจับและป้องกันการบุกรุก เพื่อตรวจสอบระบบ AI สำหรับกิจกรรมที่เป็นอันตราย และป้องกันการเข้าถึงโดยไม่ได้รับอนุญาต
- การเข้ารหัสข้อมูล: ข้อมูลผู้ป่วยที่ละเอียดอ่อนควรได้รับการเข้ารหัสทั้งในระหว่างการส่งและเมื่อจัดเก็บ เพื่อป้องกันการเข้าถึงโดยไม่ได้รับอนุญาต
- การควบคุมการเข้าถึง: ควรกำหนดการควบคุมการเข้าถึงที่เข้มงวด เพื่อจำกัดการเข้าถึงระบบ AI และข้อมูลเฉพาะบุคลากรที่ได้รับอนุญาต
ข้อพิจารณาด้านจริยธรรม
นอกเหนือจากความท้าทายทางเทคนิคแล้ว การบูรณาการ AI ในการดูแลสุขภาพยังก่อให้เกิดข้อพิจารณาด้านจริยธรรมที่สำคัญหลายประการ ซึ่งรวมถึง:
- อคติของอัลกอริทึม: แบบจำลอง AI สามารถคงอยู่และทำให้ความเหลื่อมล้ำด้านสุขภาพที่มีอยู่รุนแรงขึ้น หากได้รับการฝึกฝนจากข้อมูลที่ไม่สะท้อนถึงความหลากหลายของประชากรอย่างแม่นยำ จำเป็นอย่างยิ่งที่จะต้องตรวจสอบให้แน่ใจว่าแบบจำลอง AI มีความเป็นธรรมและไม่ลำเอียง
- ความเป็นส่วนตัวของข้อมูล: ผู้ป่วยอาจกังวลเกี่ยวกับความเป็นส่วนตัวของข้อมูลสุขภาพของพวกเขา โดยเฉพาะอย่างยิ่งหากมีการใช้เพื่อฝึกอบรมแบบจำลอง AI จำเป็นอย่างยิ่งที่จะต้องได้รับความยินยอมโดยแจ้งให้ทราบ และเพื่อปกป้องข้อมูลผู้ป่วย
- ความโปร่งใสและการอธิบายได้: แบบจำลอง AI ควรมีความโปร่งใสและอธิบายได้ เพื่อให้ผู้ป่วยสามารถเข้าใจวิธีการที่พวกเขาได้รับคำแนะนำ ซึ่งสามารถช่วยสร้างความไว้วางใจใน AI
- ความรับผิดชอบ: เป็นสิ่งสำคัญที่จะต้องกำหนดสายความรับผิดชอบที่ชัดเจนสำหรับการตัดสินใจที่ทำโดยระบบ AI ใครจะเป็นผู้รับผิดชอบหากแบบจำลอง AI ทำการวินิจฉัยผิดพลาดหรือแนะนำการรักษาที่ไม่เหมาะสม
เส้นทางข้างหน้า
การบูรณาการ AI ในการดูแลสุขภาพมีศักยภาพอย่างมากในการปรับปรุงการดูแลผู้ป่วย ลดต้นทุน และเพิ่มประสิทธิภาพของระบบการดูแลสุขภาพ อย่างไรก็ตาม จำเป็นอย่างยิ่งที่จะต้องเข้าใกล้การบูรณาการนี้ด้วยความระมัดระวัง และเพื่อจัดการกับความเสี่ยงและความท้าทายที่อาจเกิดขึ้น การนำแนวทางที่มีความรับผิดชอบและมีจริยธรรมมาใช้ จะช่วยให้เราสามารถควบคุมพลังของ AI เพื่อเปลี่ยนแปลงการดูแลสุขภาพให้ดีขึ้นได้