AI กับความสามารถที่เพิ่มขึ้นในห้องปฏิบัติการไวรัส จุดประกายความกังวลด้านความปลอดภัยทางชีวภาพ
การศึกษาที่ก้าวล้ำเผยให้เห็นว่าแบบจำลองปัญญาประดิษฐ์ (AI) ขั้นสูง รวมถึงแพลตฟอร์มต่างๆ เช่น ChatGPT และ Claude กำลังแสดงให้เห็นถึงความสามารถในการแก้ปัญหาในห้องปฏิบัติการเปียกทางไวรัสวิทยา (virology wet labs) ที่เหนือกว่านักไวรัสวิทยามืออาชีพที่จบปริญญาเอก การค้นพบนี้ แม้ว่าจะมีความศักยภาพมหาศาลในการพัฒนาการป้องกันโรค แต่ก็ก่อให้เกิดความกังวลอย่างมากเกี่ยวกับการใช้ AI ในทางที่ผิดเพื่อสร้างอาวุธชีวภาพร้ายแรง โดยเฉพาะอย่างยิ่งโดยบุคคลที่ขาดความเชี่ยวชาญและข้อพิจารณาด้านจริยธรรมที่จำเป็น
ดาบสองคมของ AI ในไวรัสวิทยา
การศึกษาซึ่งมีการแบ่งปันให้กับ TIME แต่เพียงผู้เดียวนั้น เป็นความพยายามร่วมกันของนักวิจัยจาก Center for AI Safety, MIT’s Media Lab, UFABC (มหาวิทยาลัยในบราซิล) และ SecureBio ซึ่งเป็นองค์กรไม่แสวงหาผลกำไรที่อุทิศตนเพื่อการป้องกันการแพร่ระบาด ทีมวิจัยได้ปรึกษากับนักไวรัสวิทยาระดับแนวหน้าเพื่อออกแบบการทดสอบเชิงปฏิบัติที่ท้าทายอย่างมาก ซึ่งประเมินความสามารถของแบบจำลอง AI ในการแก้ไขปัญหาขั้นตอนและโปรโตคอลในห้องปฏิบัติการที่ซับซ้อน ซึ่งมักใช้ในการวิจัยไวรัสวิทยา
ผลการทดสอบน่าทึ่ง นักไวรัสวิทยาระดับปริญญาเอก แม้จะได้รับการฝึกฝนและมีประสบการณ์อย่างกว้างขวาง แต่ก็ได้รับคะแนนความแม่นยำเฉลี่ยเพียง 22.1% ในสาขาที่ตนเองประกาศว่าเป็นผู้เชี่ยวชาญ ในทางตรงกันข้าม แบบจำลอง o3 ของ OpenAI ได้รับความแม่นยำที่น่าประทับใจถึง 43.8% ในขณะที่ Gemini 2.5 Pro ของ Google ได้ 37.6% ผลการค้นพบเหล่านี้บ่งชี้ว่าแบบจำลอง AI กำลังได้รับความรู้และทักษะที่จำเป็นอย่างรวดเร็วในการดำเนินงานที่ซับซ้อนในห้องปฏิบัติการไวรัสวิทยา ซึ่งอาจเหนือกว่าความสามารถของผู้เชี่ยวชาญที่เป็นมนุษย์ในบางด้าน
ความกังวลเกี่ยวกับการสร้างอาวุธชีวภาพ
Seth Donoughe นักวิทยาศาสตร์การวิจัยที่ SecureBio และผู้ร่วมเขียนการศึกษา แสดงความกังวลเกี่ยวกับผลกระทบจากการค้นพบเหล่านี้ เขาตั้งข้อสังเกตว่าเป็นครั้งแรกในประวัติศาสตร์ที่แทบทุกคนที่มีสิทธิ์เข้าถึงแบบจำลอง AI เหล่านี้ สามารถเข้าถึงผู้เชี่ยวชาญด้านไวรัสวิทยา AI ที่ไม่ตัดสิน ซึ่งอาจนำทางพวกเขาผ่านกระบวนการในห้องปฏิบัติการที่ซับซ้อนที่จำเป็นในการสร้างอาวุธชีวภาพ
Donoughe เน้นย้ำว่าตลอดประวัติศาสตร์ มีความพยายามมากมายในการพัฒนาอาวุธชีวภาพ แต่ความพยายามเหล่านี้ส่วนใหญ่ล้มเหลวเนื่องจากขาดการเข้าถึงความเชี่ยวชาญที่จำเป็น เขาเตือนว่าการแพร่หลายของแบบจำลอง AI ที่สามารถให้ความเชี่ยวชาญนี้ได้ก่อให้เกิดความกังวลอย่างร้ายแรงเกี่ยวกับศักยภาพในการใช้ในทางที่ผิดและความจำเป็นในการระมัดระวังในการกระจายความสามารถเหล่านี้
- ความเสี่ยงของการใช้ในทางที่ผิดโดยผู้ที่ไม่เชี่ยวชาญ
- ศักยภาพในการสร้างอาวุธชีวภาพร้ายแรง
- ความจำเป็นในการระมัดระวังในการกระจายความเชี่ยวชาญด้านไวรัสวิทยา AI
ห้องปฏิบัติการ AI ตอบสนองต่อความกังวล
เพื่อตอบสนองต่อผลการศึกษา ผู้เขียนได้แบ่งปันผลการวิจัยกับห้องปฏิบัติการ AI ขนาดใหญ่ ซึ่งกระตุ้นให้บางแห่งดำเนินการ ตัวอย่างเช่น xAI ได้เผยแพร่กรอบการจัดการความเสี่ยงที่ระบุความตั้งใจที่จะใช้การป้องกันไวรัสวิทยาใน AI model Grok รุ่นอนาคต OpenAI แจ้ง TIME ว่าได้ “ปรับใช้การบรรเทาผลกระทบระดับระบบใหม่สำหรับความเสี่ยงทางชีวภาพ” สำหรับแบบจำลองใหม่ที่เปิดตัวเมื่อสัปดาห์ที่แล้ว Anthropic ได้รวมผลการดำเนินงานของแบบจำลองไว้ในเอกสารล่าสุด แต่ไม่ได้เสนอมาตรการบรรเทาผลกระทบเฉพาะ Google’s Gemini ปฏิเสธที่จะแสดงความคิดเห็นต่อ TIME
การตอบสนองเหล่านี้บ่งชี้ถึงความตระหนักที่เพิ่มขึ้นในหมู่นักพัฒนา AI เกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นจากความสามารถที่เพิ่มขึ้นของ AI ในไวรัสวิทยา และความจำเป็นในการใช้มาตรการป้องกันเพื่อป้องกันการใช้ในทางที่ผิด
ความหวังของ AI ในการต่อสู้กับโรค
แม้จะมีความกังวลเกี่ยวกับการสร้างอาวุธชีวภาพ แต่ AI ยังมีความหวังอย่างมากในการพัฒนาการวิจัยไวรัสวิทยาและการต่อสู้กับโรคติดเชื้อ ผู้นำด้าน AI ตระหนักถึงศักยภาพของ AI ในการปฏิวัติชีวเวชศาสตร์และเร่งการพัฒนาการรักษาและวิธีรักษาใหม่ๆ มานานแล้ว
Sam Altman CEO ของ OpenAI กล่าวที่ทำเนียบขาวในเดือนมกราคมว่า “เมื่อเทคโนโลยีนี้ก้าวหน้า เราจะเห็นโรคได้รับการรักษาในอัตราที่ไม่เคยมีมาก่อน” ความมองโลกในแง่ดีนี้ได้รับการสนับสนุนจากสัญญาณความคืบหน้าที่น่าสนับสนุนในด้านนี้ เมื่อต้นปีที่ผ่านมา นักวิจัยจากสถาบัน Emerging Pathogens Institute แห่งมหาวิทยาลัยฟลอริดาได้พัฒนาอัลกอริทึมที่สามารถทำนายได้ว่าไวรัสโคโรน่าสายพันธุ์ใดอาจแพร่กระจายได้เร็วที่สุด
การประเมินความสามารถของ AI ในการดำเนินงานในห้องปฏิบัติการไวรัสวิทยา
ในขณะที่ AI ได้แสดงให้เห็นถึงความหวังในการให้ข้อมูลในรูปแบบวิชาการที่เกี่ยวข้องกับไวรัสวิทยา ช่องว่างสำคัญยังคงอยู่ที่ความเข้าใจในความสามารถในการดำเนินงานในห้องปฏิบัติการไวรัสวิทยา เพื่อแก้ไขช่องว่างนี้ Donoughe และเพื่อนร่วมงานของเขาได้ออกแบบการทดสอบเฉพาะสำหรับคำถามที่ยาก ซึ่งไม่สามารถค้นหาได้ใน Google และต้องได้รับความช่วยเหลือเชิงปฏิบัติและการตีความภาพและข้อมูลที่ไม่พบในเอกสารวิชาการโดยทั่วไป
คำถามได้รับการออกแบบมาเพื่อเลียนแบบความท้าทายที่นักไวรัสวิทยาเผชิญในการทำงานประจำวัน เช่น การแก้ไขปัญหาที่พบขณะเพาะเลี้ยงไวรัสในเซลล์และสภาวะจำเพาะ
รูปแบบได้รับการออกแบบดังนี้:
- นำเสนอสถานการณ์จำเพาะ
- ให้รายละเอียดเกี่ยวกับการตั้งค่าการทดลอง
- ขอให้ AI ระบุปัญหาที่น่าจะเกิดขึ้นมากที่สุด
AI ทำงานได้ดีกว่านักไวรัสวิทยาในการทดสอบเชิงปฏิบัติ
ผลการทดสอบเผยให้เห็นว่าแบบจำลอง AI เกือบทุกแบบทำงานได้ดีกว่านักไวรัสวิทยาระดับปริญญาเอก แม้แต่ในสาขาที่ตนเองมีความเชี่ยวชาญก็ตาม การค้นพบนี้บ่งชี้ว่าแบบจำลอง AI ไม่เพียงแต่สามารถเข้าถึงและประมวลผลความรู้ทางไวรัสวิทยาจำนวนมหาศาล แต่ยังสามารถนำความรู้นี้ไปใช้แก้ปัญหาเชิงปฏิบัติในห้องปฏิบัติการได้อีกด้วย
นักวิจัยยังสังเกตเห็นว่าแบบจำลองมีการปรับปรุงอย่างมีนัยสำคัญเมื่อเวลาผ่านไป ซึ่งบ่งชี้ว่าแบบจำลองกำลังเรียนรู้และปรับปรุงทักษะในด้านไวรัสวิทยาอย่างต่อเนื่อง ตัวอย่างเช่น Claude 3.5 Sonnet ของ Anthropic กระโดดจากความแม่นยำ 26.9% เป็น 33.6% จากแบบจำลองเดือนมิถุนายน 2024 เป็นแบบจำลองเดือนตุลาคม 2024 และตัวอย่าง GPT 4.5 ของ OpenAI ในเดือนกุมภาพันธ์ ทำงานได้ดีกว่า GPT-4o เกือบ 10 เปอร์เซ็นต์
ผลกระทบจากความสามารถที่เพิ่มขึ้นของ AI
Dan Hendrycks ผู้อำนวยการ Center for AI Safety เน้นย้ำว่าแบบจำลอง AI กำลังได้รับความรู้เชิงปฏิบัติจำนวนมากอย่างน่ากังวล หากแบบจำลอง AI มีความสามารถในห้องปฏิบัติการเปียกจริงดังที่การศึกษาแนะนำ ผลกระทบก็จะกว้างขวาง
ในด้านหนึ่ง AI สามารถให้ความช่วยเหลืออันล้ำค่าแก่นักไวรัสวิทยาที่มีประสบการณ์ในการทำงานที่สำคัญในการต่อสู้กับไวรัส เร่งไทม์ไลน์ของการแพทย์และการพัฒนาวัคซีน และปรับปรุงการทดลองทางคลินิกและการตรวจจับโรค Tom Inglesby ผู้อำนวยการ Johns Hopkins Center for Health Security ตั้งข้อสังเกตว่า AI สามารถเสริมศักยภาพนักวิทยาศาสตร์ในส่วนต่างๆ ของโลก โดยเฉพาะผู้ที่ขาดทักษะหรือทรัพยากรเฉพาะทาง เพื่อดำเนินงานประจำวันที่มีค่าเกี่ยวกับโรคที่เกิดขึ้นในประเทศของตน
- เร่งการแพทย์และการพัฒนาวัคซีน
- ปรับปรุงการทดลองทางคลินิกและการตรวจจับโรค
- เสริมศักยภาพนักวิทยาศาสตร์ในสภาพแวดล้อมที่มีทรัพยากรจำกัด
ความเสี่ยงของการใช้ในทางที่ผิดโดยผู้ไม่ประสงค์ดี
ในทางกลับกัน การศึกษาได้ก่อให้เกิดความกังวลอย่างร้ายแรงเกี่ยวกับการใช้ AI ในทางที่ผิดโดยผู้ไม่ประสงค์ดี ซึ่งสามารถใช้แบบจำลองเหล่านี้เพื่อเรียนรู้วิธีการสร้างไวรัสโดยไม่จำเป็นต้องได้รับการฝึกอบรมและการเข้าถึงตามปกติที่จำเป็นในการเข้าสู่ห้องปฏิบัติการ Biosafety Level 4 (BSL-4) ซึ่งจัดการกับเชื้อโรคที่อันตรายและแปลกใหม่ที่สุด Inglesby เตือนว่า AI สามารถเสริมศักยภาพให้ผู้คนจำนวนมากขึ้นที่มีการฝึกอบรมน้อยกว่าในการจัดการและควบคุมไวรัส ซึ่งอาจนำไปสู่ผลกระทบที่ร้ายแรง
Hendrycks เรียกร้องให้บริษัท AI ใช้มาตรการป้องกันเพื่อป้องกันการใช้งานประเภทนี้ โดยแนะนำว่าการไม่ทำเช่นนั้นภายในหกเดือนจะเป็นเรื่องประมาท เขาเสนอว่าวิธีแก้ปัญหาหนึ่งคือการทำให้แบบจำลองเหล่านี้ถูกจำกัดการเข้าถึง เพื่อให้เฉพาะบุคคลที่สามที่เชื่อถือได้ ซึ่งมีเหตุผลที่ถูกต้องตามกฎหมายในการควบคุมไวรัสร้ายแรง เช่น นักวิจัยที่ภาควิชาชีววิทยาของ MIT สามารถเข้าถึงเวอร์ชันที่ไม่ผ่านการกรองได้
- ป้องกันการใช้ในทางที่ผิดโดยการใช้มาตรการป้องกัน
- จำกัดการเข้าถึงแบบจำลองให้กับบุคคลที่เชื่อถือได้
- ตรวจสอบให้แน่ใจว่ามีเพียงนักวิจัยที่ได้รับอนุญาตเท่านั้นที่สามารถเข้าถึงความสามารถที่ละเอียดอ่อนได้
ความเป็นไปได้ของการกำกับดูแลตนเองของอุตสาหกรรม
Hendrycks เชื่อว่าบริษัท AI สามารถกำกับดูแลตนเองและใช้มาตรการป้องกันประเภทนี้ได้ในทางเทคโนโลยี อย่างไรก็ตาม เขาแสดงความกังวลว่าบางบริษัทจะดึงเวลาหรือเพียงแค่ล้มเหลวในการดำเนินการตามขั้นตอนที่จำเป็น
xAI ซึ่งเป็นห้องปฏิบัติการ AI ของ Elon Musk ยอมรับเอกสารและส่งสัญญาณว่าบริษัท “อาจใช้” มาตรการป้องกันบางอย่างเกี่ยวกับการตอบคำถามเกี่ยวกับไวรัสวิทยา รวมถึงการฝึกอบรม Grok ให้ปฏิเสธคำขอที่เป็นอันตราย และใช้ตัวกรองอินพุตและเอาต์พุต
OpenAI ระบุว่าแบบจำลองใหม่ล่าสุด o3 และ o4-mini ได้รับการปรับใช้ด้วยชุดมาตรการป้องกันที่เกี่ยวข้องกับความเสี่ยงทางชีวภาพ รวมถึงการบล็อกเอาต์พุตที่เป็นอันตราย บริษัทยังรายงานด้วยว่าได้ดำเนินการรณรงค์ red-teaming เป็นเวลาหนึ่งพันชั่วโมง ซึ่งการสนทนาที่เกี่ยวข้องกับชีวภาพที่ไม่ปลอดภัย 98.7% ได้รับการแจ้งเตือนและบล็อกเรียบร้อยแล้ว
- ฝึกอบรมแบบจำลอง AI ให้ปฏิเสธคำขอที่เป็นอันตราย
- ใช้ตัวกรองอินพุตและเอาต์พุตเพื่อบล็อกเนื้อหาที่เป็นอันตราย
- ดำเนินการ red-teaming เพื่อระบุและลดความเสี่ยง
ความจำเป็นต่อนโยบายและการกำกับดูแล
แม้จะมีความพยายามเหล่านี้ Inglesby แย้งว่าการกำกับดูแลตนเองของอุตสาหกรรมยังไม่เพียงพอ และเรียกร้องให้ผู้ร่างกฎหมายและผู้นำทางการเมืองพัฒนากลยุทธ์เชิงนโยบายในการกำกับดูแลความเสี่ยงทางชีวภาพของ AI เขาเน้นย้ำว่าในขณะที่บางบริษัทกำลังลงทุนเวลาและเงินเพื่อแก้ไขความเสี่ยงเหล่านี้ บริษัทอื่นๆ อาจไม่ทำเช่นนั้น ทำให้เกิดสถานการณ์ที่ประชาชนไม่สามารถมองเห็นสิ่งที่เกิดขึ้นได้
Inglesby เสนอว่าก่อนที่จะมีการเปิดตัว LLM เวอร์ชันใหม่ ควรได้รับการประเมินเพื่อให้แน่ใจว่าจะไม่ก่อให้เกิดผลลัพธ์ในระดับการแพร่ระบาด ซึ่งจะต้องมีแนวทางที่ครอบคลุมและประสานงานกันมากขึ้นในการกำกับดูแลความสามารถของ AI ในไวรัสวิทยา โดยเกี่ยวข้องกับทั้งผู้มีส่วนได้ส่วนเสียในอุตสาหกรรมและภาครัฐ
- ประเมิน LLM ก่อนการเปิดตัวเพื่อป้องกันผลลัพธ์ในระดับการแพร่ระบาด
- พัฒนากลยุทธ์เชิงนโยบายที่ครอบคลุมเพื่อกำกับดูแลความเสี่ยงทางชีวภาพของ AI
- ให้ผู้มีส่วนได้ส่วนเสียในอุตสาหกรรมและภาครัฐมีส่วนร่วมในกระบวนการกำกับดูแล
สร้างสมดุลระหว่างนวัตกรรมและความปลอดภัย
ความท้าทายอยู่ที่การสร้างสมดุลระหว่างการส่งเสริมนวัตกรรมใน AI และการทำให้มั่นใจว่าเทคโนโลยีอันทรงพลังเหล่านี้จะไม่ถูกใช้ในทางที่ผิดเพื่อสร้างอาวุธชีวภาพร้ายแรง ซึ่งต้องใช้แนวทางที่หลากหลายซึ่งรวมถึง:
- พัฒนามาตรการป้องกันที่แข็งแกร่งเพื่อป้องกันการใช้ในทางที่ผิด
- จำกัดการเข้าถึงความสามารถที่ละเอียดอ่อนให้กับบุคคลที่เชื่อถือได้
- กำกับดูแลความสามารถของ AI ในไวรัสวิทยา
- ส่งเสริมนวัตกรรมที่มีความรับผิดชอบและข้อพิจารณาด้านจริยธรรม
ด้วยการทำตามขั้นตอนเหล่านี้ เราสามารถควบคุมศักยภาพมหาศาลของ AI เพื่อพัฒนาการวิจัยไวรัสวิทยาและการต่อสู้กับโรคติดเชื้อ ในขณะเดียวกันก็ลดความเสี่ยงที่เกี่ยวข้องกับการใช้ในทางที่ผิด อนาคตของ AI ในไวรัสวิทยาขึ้นอยู่กับความสามารถของเราในการนำทางภูมิทัศน์ที่ซับซ้อนนี้อย่างมีความรับผิดชอบ และทำให้มั่นใจว่าเทคโนโลยีอันทรงพลังเหล่านี้ถูกนำไปใช้เพื่อประโยชน์ของมนุษยชาติ