AI เก่งแล็บไวรัส เสี่ยงชีวภาพ

AI กับความสามารถที่เพิ่มขึ้นในห้องปฏิบัติการไวรัส จุดประกายความกังวลด้านความปลอดภัยทางชีวภาพ

การศึกษาที่ก้าวล้ำเผยให้เห็นว่าแบบจำลองปัญญาประดิษฐ์ (AI) ขั้นสูง รวมถึงแพลตฟอร์มต่างๆ เช่น ChatGPT และ Claude กำลังแสดงให้เห็นถึงความสามารถในการแก้ปัญหาในห้องปฏิบัติการเปียกทางไวรัสวิทยา (virology wet labs) ที่เหนือกว่านักไวรัสวิทยามืออาชีพที่จบปริญญาเอก การค้นพบนี้ แม้ว่าจะมีความศักยภาพมหาศาลในการพัฒนาการป้องกันโรค แต่ก็ก่อให้เกิดความกังวลอย่างมากเกี่ยวกับการใช้ AI ในทางที่ผิดเพื่อสร้างอาวุธชีวภาพร้ายแรง โดยเฉพาะอย่างยิ่งโดยบุคคลที่ขาดความเชี่ยวชาญและข้อพิจารณาด้านจริยธรรมที่จำเป็น

ดาบสองคมของ AI ในไวรัสวิทยา

การศึกษาซึ่งมีการแบ่งปันให้กับ TIME แต่เพียงผู้เดียวนั้น เป็นความพยายามร่วมกันของนักวิจัยจาก Center for AI Safety, MIT’s Media Lab, UFABC (มหาวิทยาลัยในบราซิล) และ SecureBio ซึ่งเป็นองค์กรไม่แสวงหาผลกำไรที่อุทิศตนเพื่อการป้องกันการแพร่ระบาด ทีมวิจัยได้ปรึกษากับนักไวรัสวิทยาระดับแนวหน้าเพื่อออกแบบการทดสอบเชิงปฏิบัติที่ท้าทายอย่างมาก ซึ่งประเมินความสามารถของแบบจำลอง AI ในการแก้ไขปัญหาขั้นตอนและโปรโตคอลในห้องปฏิบัติการที่ซับซ้อน ซึ่งมักใช้ในการวิจัยไวรัสวิทยา

ผลการทดสอบน่าทึ่ง นักไวรัสวิทยาระดับปริญญาเอก แม้จะได้รับการฝึกฝนและมีประสบการณ์อย่างกว้างขวาง แต่ก็ได้รับคะแนนความแม่นยำเฉลี่ยเพียง 22.1% ในสาขาที่ตนเองประกาศว่าเป็นผู้เชี่ยวชาญ ในทางตรงกันข้าม แบบจำลอง o3 ของ OpenAI ได้รับความแม่นยำที่น่าประทับใจถึง 43.8% ในขณะที่ Gemini 2.5 Pro ของ Google ได้ 37.6% ผลการค้นพบเหล่านี้บ่งชี้ว่าแบบจำลอง AI กำลังได้รับความรู้และทักษะที่จำเป็นอย่างรวดเร็วในการดำเนินงานที่ซับซ้อนในห้องปฏิบัติการไวรัสวิทยา ซึ่งอาจเหนือกว่าความสามารถของผู้เชี่ยวชาญที่เป็นมนุษย์ในบางด้าน

ความกังวลเกี่ยวกับการสร้างอาวุธชีวภาพ

Seth Donoughe นักวิทยาศาสตร์การวิจัยที่ SecureBio และผู้ร่วมเขียนการศึกษา แสดงความกังวลเกี่ยวกับผลกระทบจากการค้นพบเหล่านี้ เขาตั้งข้อสังเกตว่าเป็นครั้งแรกในประวัติศาสตร์ที่แทบทุกคนที่มีสิทธิ์เข้าถึงแบบจำลอง AI เหล่านี้ สามารถเข้าถึงผู้เชี่ยวชาญด้านไวรัสวิทยา AI ที่ไม่ตัดสิน ซึ่งอาจนำทางพวกเขาผ่านกระบวนการในห้องปฏิบัติการที่ซับซ้อนที่จำเป็นในการสร้างอาวุธชีวภาพ

Donoughe เน้นย้ำว่าตลอดประวัติศาสตร์ มีความพยายามมากมายในการพัฒนาอาวุธชีวภาพ แต่ความพยายามเหล่านี้ส่วนใหญ่ล้มเหลวเนื่องจากขาดการเข้าถึงความเชี่ยวชาญที่จำเป็น เขาเตือนว่าการแพร่หลายของแบบจำลอง AI ที่สามารถให้ความเชี่ยวชาญนี้ได้ก่อให้เกิดความกังวลอย่างร้ายแรงเกี่ยวกับศักยภาพในการใช้ในทางที่ผิดและความจำเป็นในการระมัดระวังในการกระจายความสามารถเหล่านี้

  • ความเสี่ยงของการใช้ในทางที่ผิดโดยผู้ที่ไม่เชี่ยวชาญ
  • ศักยภาพในการสร้างอาวุธชีวภาพร้ายแรง
  • ความจำเป็นในการระมัดระวังในการกระจายความเชี่ยวชาญด้านไวรัสวิทยา AI

ห้องปฏิบัติการ AI ตอบสนองต่อความกังวล

เพื่อตอบสนองต่อผลการศึกษา ผู้เขียนได้แบ่งปันผลการวิจัยกับห้องปฏิบัติการ AI ขนาดใหญ่ ซึ่งกระตุ้นให้บางแห่งดำเนินการ ตัวอย่างเช่น xAI ได้เผยแพร่กรอบการจัดการความเสี่ยงที่ระบุความตั้งใจที่จะใช้การป้องกันไวรัสวิทยาใน AI model Grok รุ่นอนาคต OpenAI แจ้ง TIME ว่าได้ “ปรับใช้การบรรเทาผลกระทบระดับระบบใหม่สำหรับความเสี่ยงทางชีวภาพ” สำหรับแบบจำลองใหม่ที่เปิดตัวเมื่อสัปดาห์ที่แล้ว Anthropic ได้รวมผลการดำเนินงานของแบบจำลองไว้ในเอกสารล่าสุด แต่ไม่ได้เสนอมาตรการบรรเทาผลกระทบเฉพาะ Google’s Gemini ปฏิเสธที่จะแสดงความคิดเห็นต่อ TIME

การตอบสนองเหล่านี้บ่งชี้ถึงความตระหนักที่เพิ่มขึ้นในหมู่นักพัฒนา AI เกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นจากความสามารถที่เพิ่มขึ้นของ AI ในไวรัสวิทยา และความจำเป็นในการใช้มาตรการป้องกันเพื่อป้องกันการใช้ในทางที่ผิด

ความหวังของ AI ในการต่อสู้กับโรค

แม้จะมีความกังวลเกี่ยวกับการสร้างอาวุธชีวภาพ แต่ AI ยังมีความหวังอย่างมากในการพัฒนาการวิจัยไวรัสวิทยาและการต่อสู้กับโรคติดเชื้อ ผู้นำด้าน AI ตระหนักถึงศักยภาพของ AI ในการปฏิวัติชีวเวชศาสตร์และเร่งการพัฒนาการรักษาและวิธีรักษาใหม่ๆ มานานแล้ว

Sam Altman CEO ของ OpenAI กล่าวที่ทำเนียบขาวในเดือนมกราคมว่า “เมื่อเทคโนโลยีนี้ก้าวหน้า เราจะเห็นโรคได้รับการรักษาในอัตราที่ไม่เคยมีมาก่อน” ความมองโลกในแง่ดีนี้ได้รับการสนับสนุนจากสัญญาณความคืบหน้าที่น่าสนับสนุนในด้านนี้ เมื่อต้นปีที่ผ่านมา นักวิจัยจากสถาบัน Emerging Pathogens Institute แห่งมหาวิทยาลัยฟลอริดาได้พัฒนาอัลกอริทึมที่สามารถทำนายได้ว่าไวรัสโคโรน่าสายพันธุ์ใดอาจแพร่กระจายได้เร็วที่สุด

การประเมินความสามารถของ AI ในการดำเนินงานในห้องปฏิบัติการไวรัสวิทยา

ในขณะที่ AI ได้แสดงให้เห็นถึงความหวังในการให้ข้อมูลในรูปแบบวิชาการที่เกี่ยวข้องกับไวรัสวิทยา ช่องว่างสำคัญยังคงอยู่ที่ความเข้าใจในความสามารถในการดำเนินงานในห้องปฏิบัติการไวรัสวิทยา เพื่อแก้ไขช่องว่างนี้ Donoughe และเพื่อนร่วมงานของเขาได้ออกแบบการทดสอบเฉพาะสำหรับคำถามที่ยาก ซึ่งไม่สามารถค้นหาได้ใน Google และต้องได้รับความช่วยเหลือเชิงปฏิบัติและการตีความภาพและข้อมูลที่ไม่พบในเอกสารวิชาการโดยทั่วไป

คำถามได้รับการออกแบบมาเพื่อเลียนแบบความท้าทายที่นักไวรัสวิทยาเผชิญในการทำงานประจำวัน เช่น การแก้ไขปัญหาที่พบขณะเพาะเลี้ยงไวรัสในเซลล์และสภาวะจำเพาะ

รูปแบบได้รับการออกแบบดังนี้:

  • นำเสนอสถานการณ์จำเพาะ
  • ให้รายละเอียดเกี่ยวกับการตั้งค่าการทดลอง
  • ขอให้ AI ระบุปัญหาที่น่าจะเกิดขึ้นมากที่สุด

AI ทำงานได้ดีกว่านักไวรัสวิทยาในการทดสอบเชิงปฏิบัติ

ผลการทดสอบเผยให้เห็นว่าแบบจำลอง AI เกือบทุกแบบทำงานได้ดีกว่านักไวรัสวิทยาระดับปริญญาเอก แม้แต่ในสาขาที่ตนเองมีความเชี่ยวชาญก็ตาม การค้นพบนี้บ่งชี้ว่าแบบจำลอง AI ไม่เพียงแต่สามารถเข้าถึงและประมวลผลความรู้ทางไวรัสวิทยาจำนวนมหาศาล แต่ยังสามารถนำความรู้นี้ไปใช้แก้ปัญหาเชิงปฏิบัติในห้องปฏิบัติการได้อีกด้วย

นักวิจัยยังสังเกตเห็นว่าแบบจำลองมีการปรับปรุงอย่างมีนัยสำคัญเมื่อเวลาผ่านไป ซึ่งบ่งชี้ว่าแบบจำลองกำลังเรียนรู้และปรับปรุงทักษะในด้านไวรัสวิทยาอย่างต่อเนื่อง ตัวอย่างเช่น Claude 3.5 Sonnet ของ Anthropic กระโดดจากความแม่นยำ 26.9% เป็น 33.6% จากแบบจำลองเดือนมิถุนายน 2024 เป็นแบบจำลองเดือนตุลาคม 2024 และตัวอย่าง GPT 4.5 ของ OpenAI ในเดือนกุมภาพันธ์ ทำงานได้ดีกว่า GPT-4o เกือบ 10 เปอร์เซ็นต์

ผลกระทบจากความสามารถที่เพิ่มขึ้นของ AI

Dan Hendrycks ผู้อำนวยการ Center for AI Safety เน้นย้ำว่าแบบจำลอง AI กำลังได้รับความรู้เชิงปฏิบัติจำนวนมากอย่างน่ากังวล หากแบบจำลอง AI มีความสามารถในห้องปฏิบัติการเปียกจริงดังที่การศึกษาแนะนำ ผลกระทบก็จะกว้างขวาง

ในด้านหนึ่ง AI สามารถให้ความช่วยเหลืออันล้ำค่าแก่นักไวรัสวิทยาที่มีประสบการณ์ในการทำงานที่สำคัญในการต่อสู้กับไวรัส เร่งไทม์ไลน์ของการแพทย์และการพัฒนาวัคซีน และปรับปรุงการทดลองทางคลินิกและการตรวจจับโรค Tom Inglesby ผู้อำนวยการ Johns Hopkins Center for Health Security ตั้งข้อสังเกตว่า AI สามารถเสริมศักยภาพนักวิทยาศาสตร์ในส่วนต่างๆ ของโลก โดยเฉพาะผู้ที่ขาดทักษะหรือทรัพยากรเฉพาะทาง เพื่อดำเนินงานประจำวันที่มีค่าเกี่ยวกับโรคที่เกิดขึ้นในประเทศของตน

  • เร่งการแพทย์และการพัฒนาวัคซีน
  • ปรับปรุงการทดลองทางคลินิกและการตรวจจับโรค
  • เสริมศักยภาพนักวิทยาศาสตร์ในสภาพแวดล้อมที่มีทรัพยากรจำกัด

ความเสี่ยงของการใช้ในทางที่ผิดโดยผู้ไม่ประสงค์ดี

ในทางกลับกัน การศึกษาได้ก่อให้เกิดความกังวลอย่างร้ายแรงเกี่ยวกับการใช้ AI ในทางที่ผิดโดยผู้ไม่ประสงค์ดี ซึ่งสามารถใช้แบบจำลองเหล่านี้เพื่อเรียนรู้วิธีการสร้างไวรัสโดยไม่จำเป็นต้องได้รับการฝึกอบรมและการเข้าถึงตามปกติที่จำเป็นในการเข้าสู่ห้องปฏิบัติการ Biosafety Level 4 (BSL-4) ซึ่งจัดการกับเชื้อโรคที่อันตรายและแปลกใหม่ที่สุด Inglesby เตือนว่า AI สามารถเสริมศักยภาพให้ผู้คนจำนวนมากขึ้นที่มีการฝึกอบรมน้อยกว่าในการจัดการและควบคุมไวรัส ซึ่งอาจนำไปสู่ผลกระทบที่ร้ายแรง

Hendrycks เรียกร้องให้บริษัท AI ใช้มาตรการป้องกันเพื่อป้องกันการใช้งานประเภทนี้ โดยแนะนำว่าการไม่ทำเช่นนั้นภายในหกเดือนจะเป็นเรื่องประมาท เขาเสนอว่าวิธีแก้ปัญหาหนึ่งคือการทำให้แบบจำลองเหล่านี้ถูกจำกัดการเข้าถึง เพื่อให้เฉพาะบุคคลที่สามที่เชื่อถือได้ ซึ่งมีเหตุผลที่ถูกต้องตามกฎหมายในการควบคุมไวรัสร้ายแรง เช่น นักวิจัยที่ภาควิชาชีววิทยาของ MIT สามารถเข้าถึงเวอร์ชันที่ไม่ผ่านการกรองได้

  • ป้องกันการใช้ในทางที่ผิดโดยการใช้มาตรการป้องกัน
  • จำกัดการเข้าถึงแบบจำลองให้กับบุคคลที่เชื่อถือได้
  • ตรวจสอบให้แน่ใจว่ามีเพียงนักวิจัยที่ได้รับอนุญาตเท่านั้นที่สามารถเข้าถึงความสามารถที่ละเอียดอ่อนได้

ความเป็นไปได้ของการกำกับดูแลตนเองของอุตสาหกรรม

Hendrycks เชื่อว่าบริษัท AI สามารถกำกับดูแลตนเองและใช้มาตรการป้องกันประเภทนี้ได้ในทางเทคโนโลยี อย่างไรก็ตาม เขาแสดงความกังวลว่าบางบริษัทจะดึงเวลาหรือเพียงแค่ล้มเหลวในการดำเนินการตามขั้นตอนที่จำเป็น

xAI ซึ่งเป็นห้องปฏิบัติการ AI ของ Elon Musk ยอมรับเอกสารและส่งสัญญาณว่าบริษัท “อาจใช้” มาตรการป้องกันบางอย่างเกี่ยวกับการตอบคำถามเกี่ยวกับไวรัสวิทยา รวมถึงการฝึกอบรม Grok ให้ปฏิเสธคำขอที่เป็นอันตราย และใช้ตัวกรองอินพุตและเอาต์พุต

OpenAI ระบุว่าแบบจำลองใหม่ล่าสุด o3 และ o4-mini ได้รับการปรับใช้ด้วยชุดมาตรการป้องกันที่เกี่ยวข้องกับความเสี่ยงทางชีวภาพ รวมถึงการบล็อกเอาต์พุตที่เป็นอันตราย บริษัทยังรายงานด้วยว่าได้ดำเนินการรณรงค์ red-teaming เป็นเวลาหนึ่งพันชั่วโมง ซึ่งการสนทนาที่เกี่ยวข้องกับชีวภาพที่ไม่ปลอดภัย 98.7% ได้รับการแจ้งเตือนและบล็อกเรียบร้อยแล้ว

  • ฝึกอบรมแบบจำลอง AI ให้ปฏิเสธคำขอที่เป็นอันตราย
  • ใช้ตัวกรองอินพุตและเอาต์พุตเพื่อบล็อกเนื้อหาที่เป็นอันตราย
  • ดำเนินการ red-teaming เพื่อระบุและลดความเสี่ยง

ความจำเป็นต่อนโยบายและการกำกับดูแล

แม้จะมีความพยายามเหล่านี้ Inglesby แย้งว่าการกำกับดูแลตนเองของอุตสาหกรรมยังไม่เพียงพอ และเรียกร้องให้ผู้ร่างกฎหมายและผู้นำทางการเมืองพัฒนากลยุทธ์เชิงนโยบายในการกำกับดูแลความเสี่ยงทางชีวภาพของ AI เขาเน้นย้ำว่าในขณะที่บางบริษัทกำลังลงทุนเวลาและเงินเพื่อแก้ไขความเสี่ยงเหล่านี้ บริษัทอื่นๆ อาจไม่ทำเช่นนั้น ทำให้เกิดสถานการณ์ที่ประชาชนไม่สามารถมองเห็นสิ่งที่เกิดขึ้นได้

Inglesby เสนอว่าก่อนที่จะมีการเปิดตัว LLM เวอร์ชันใหม่ ควรได้รับการประเมินเพื่อให้แน่ใจว่าจะไม่ก่อให้เกิดผลลัพธ์ในระดับการแพร่ระบาด ซึ่งจะต้องมีแนวทางที่ครอบคลุมและประสานงานกันมากขึ้นในการกำกับดูแลความสามารถของ AI ในไวรัสวิทยา โดยเกี่ยวข้องกับทั้งผู้มีส่วนได้ส่วนเสียในอุตสาหกรรมและภาครัฐ

  • ประเมิน LLM ก่อนการเปิดตัวเพื่อป้องกันผลลัพธ์ในระดับการแพร่ระบาด
  • พัฒนากลยุทธ์เชิงนโยบายที่ครอบคลุมเพื่อกำกับดูแลความเสี่ยงทางชีวภาพของ AI
  • ให้ผู้มีส่วนได้ส่วนเสียในอุตสาหกรรมและภาครัฐมีส่วนร่วมในกระบวนการกำกับดูแล

สร้างสมดุลระหว่างนวัตกรรมและความปลอดภัย

ความท้าทายอยู่ที่การสร้างสมดุลระหว่างการส่งเสริมนวัตกรรมใน AI และการทำให้มั่นใจว่าเทคโนโลยีอันทรงพลังเหล่านี้จะไม่ถูกใช้ในทางที่ผิดเพื่อสร้างอาวุธชีวภาพร้ายแรง ซึ่งต้องใช้แนวทางที่หลากหลายซึ่งรวมถึง:

  • พัฒนามาตรการป้องกันที่แข็งแกร่งเพื่อป้องกันการใช้ในทางที่ผิด
  • จำกัดการเข้าถึงความสามารถที่ละเอียดอ่อนให้กับบุคคลที่เชื่อถือได้
  • กำกับดูแลความสามารถของ AI ในไวรัสวิทยา
  • ส่งเสริมนวัตกรรมที่มีความรับผิดชอบและข้อพิจารณาด้านจริยธรรม

ด้วยการทำตามขั้นตอนเหล่านี้ เราสามารถควบคุมศักยภาพมหาศาลของ AI เพื่อพัฒนาการวิจัยไวรัสวิทยาและการต่อสู้กับโรคติดเชื้อ ในขณะเดียวกันก็ลดความเสี่ยงที่เกี่ยวข้องกับการใช้ในทางที่ผิด อนาคตของ AI ในไวรัสวิทยาขึ้นอยู่กับความสามารถของเราในการนำทางภูมิทัศน์ที่ซับซ้อนนี้อย่างมีความรับผิดชอบ และทำให้มั่นใจว่าเทคโนโลยีอันทรงพลังเหล่านี้ถูกนำไปใช้เพื่อประโยชน์ของมนุษยชาติ