Gemini 2.5 Pro: รายงานความปลอดภัยหายไป?

คำสัญญาที่ถูกละเลยและความมุ่งมั่นที่ไม่เป็นไปตามเป้าหมาย

การที่ Google ไม่ได้จัดทำรายงานการวิจัยด้านความปลอดภัยควบคู่ไปกับการเปิดตัว Gemini 2.5 Pro ถูกมองว่าเป็นการละเมิดข้อผูกพันก่อนหน้านี้ ในเดือนกรกฎาคม 2023 Google ได้เข้าร่วมการประชุมทำเนียบขาวซึ่งจัดโดยรัฐบาลไบเดน ซึ่งได้ร่วมกับบริษัท AI ชั้นนำอื่น ๆ ลงนามในชุดคำมั่นสัญญา ข้อผูกพันที่สำคัญคือการเผยแพร่รายงานสำหรับการเปิดตัวโมเดลสาธารณะที่สำคัญทั้งหมดซึ่งเหนือกว่า AI ที่ล้ำสมัยในปัจจุบัน เนื่องจากความก้าวหน้าของมัน Gemini 2.5 Pro จะตกอยู่ภายใต้ขอบเขตของ White House Commitments อย่างแน่นอน

ในเวลานั้น Google เห็นพ้องว่ารายงานเหล่านี้ควรรวมถึง:

  • การประเมินความปลอดภัยที่ดำเนินการ รวมถึงการประเมินความสามารถที่เป็นอันตราย
  • ข้อจำกัดด้านประสิทธิภาพที่สำคัญที่อาจส่งผลต่อกรณีการใช้งานที่เหมาะสม
  • การอภิปรายเกี่ยวกับผลกระทบของโมเดลต่อความเสี่ยงทางสังคม เช่น ความเป็นธรรมและความลำเอียง
  • ผลลัพธ์ของการทดสอบแบบ Adversarial เพื่อประเมินความเหมาะสมของโมเดลสำหรับการใช้งาน

หลังจากการประชุม G7 ที่ฮิโรชิมา ประเทศญี่ปุ่น ในเดือนตุลาคม 2023 Google และบริษัทอื่น ๆ ได้ให้คำมั่นสัญญาว่าจะปฏิบัติตามหลักปฏิบัติโดยสมัครใจสำหรับการพัฒนา AI ขั้นสูง รหัส G7 นี้เน้นย้ำถึงความสำคัญของการรายงานต่อสาธารณะเกี่ยวกับความสามารถ ข้อจำกัด และการใช้งานที่เหมาะสมและไม่เหมาะสมของระบบ AI ขั้นสูง จุดมุ่งหมายคือเพื่อเพิ่มความโปร่งใสและความรับผิดชอบในสาขา AI

ในเดือนพฤษภาคม 2024 ในการประชุมสุดยอดนานาชาติว่าด้วยความปลอดภัยของ AI ซึ่งจัดขึ้นที่กรุงโซล ประเทศเกาหลีใต้ Google ได้ย้ำถึงความมุ่งมั่น บริษัทสัญญาว่าจะเปิดเผยความสามารถ ข้อจำกัด กรณีการใช้งานที่เหมาะสมและไม่เหมาะสมของโมเดลต่อสาธารณะ และเพื่อให้เกิดความโปร่งใสเกี่ยวกับการประเมินความเสี่ยงและผลลัพธ์

การตอบสนองของ Google และความโปร่งใสที่ล่าช้า

ในการตอบสนองต่อข้อสงสัยเกี่ยวกับรายงานความปลอดภัยที่หายไป โฆษกของ Google DeepMind ซึ่งเป็นแผนกที่รับผิดชอบในการพัฒนาโมเดล Gemini กล่าวว่า Gemini รุ่นล่าสุดได้ผ่านการทดสอบก่อนการเผยแพร่ ซึ่งรวมถึงการประเมินการพัฒนาภายในและการประเมินการประกันที่ดำเนินการก่อนการเปิดตัวโมเดล โฆษกยังระบุด้วยว่ารายงานที่มีข้อมูลด้านความปลอดภัยเพิ่มเติมและ Model Card “กำลังจะมาถึง” อย่างไรก็ตาม แม้ว่าแถลงการณ์เบื้องต้นจะออกเมื่อวันที่ 2 เมษายน แต่ก็ยังไม่มี Model Card ใดได้รับการเผยแพร่จนถึงปัจจุบัน

แนวโน้มที่กว้างขึ้นของการละเลยการรายงานความปลอดภัย

Google ไม่ได้เผชิญกับการวิพากษ์วิจารณ์เพียงอย่างเดียวเกี่ยวกับความมุ่งมั่นต่อความปลอดภัยของ AI ก่อนหน้านี้ในปีนี้ OpenAI ก็เผชิญกับการตรวจสอบข้อเท็จจริงเนื่องจากไม่สามารถเผยแพร่ Model Card ได้ทันเวลาสำหรับโมเดล Deep Research ของตน พวกเขาเผยแพร่ System Card หลายสัปดาห์หลังจากการเปิดตัวโครงการครั้งแรก ในทำนองเดียวกัน รายงานความปลอดภัยล่าสุดของ Meta สำหรับ Llama 4 ถูกวิพากษ์วิจารณ์ว่าสั้นเกินไปและขาดรายละเอียด

กรณีเหล่านี้เน้นย้ำถึงแนวโน้มที่น่ากังวลภายในอุตสาหกรรม AI ซึ่งห้องปฏิบัติการที่สำคัญบางแห่งไม่ได้ให้ความสำคัญกับการรายงานความปลอดภัยตามการเปิดตัวโมเดลของตน สิ่งนี้เป็นปัญหาอย่างยิ่งเมื่อพิจารณาถึงข้อผูกพันโดยสมัครใจที่บริษัทเหล่านี้ทำไว้กับรัฐบาลสหรัฐฯ และประชาคมโลกในการจัดทำรายงานดังกล่าว ข้อผูกพันเหล่านี้ทำขึ้นครั้งแรกกับฝ่ายบริหารของ Biden ในปี 2023 และได้รับการเสริมสร้างความเข้มแข็งในภายหลังผ่านคำมั่นสัญญาว่าจะปฏิบัติตามหลักปฏิบัติ AI ที่นำมาใช้โดยกลุ่มประเทศ G7 ในการประชุมสุดยอด AI ที่ฮิโรชิมา

Kevin Bankston ที่ปรึกษาด้านการกำกับดูแล AI ที่ Center for Democracy and Technology แสดงความผิดหวัง โดยระบุว่าความล้มเหลวเหล่านี้บ่อนทำลายความน่าเชื่อถือของบริษัทที่เกี่ยวข้อง และตั้งคำถามถึงความมุ่งมั่นในการพัฒนา AI อย่างมีความรับผิดชอบ

คำถามที่ยังไม่มีคำตอบและการประเมินภายนอก

แถลงการณ์ของโฆษก Google ยังไม่ได้ตอบคำถามเฉพาะเจาะจงเกี่ยวกับว่า Gemini 2.5 Pro ได้ถูกส่งเพื่อประเมินภายนอกจาก U.K. AI Security Institute หรือ U.S. AI Safety Institute หรือไม่ ก่อนหน้านี้ Google ได้จัดทำ Gemini รุ่นก่อนหน้าให้กับ U.K. AI Safety Institute เพื่อทำการประเมิน

ในการประชุมสุดยอดความปลอดภัยที่กรุงโซล Google ได้ลงนามใน “Frontier AI Safety Commitments” ซึ่งรวมถึงคำมั่นสัญญาที่จะให้ความโปร่งใสต่อสาธารณชนเกี่ยวกับการดำเนินการประเมินความปลอดภัย ข้อยกเว้นเพียงอย่างเดียวคือกรณีที่การทำเช่นนั้นจะเพิ่มความเสี่ยงหรือเปิดเผยข้อมูลทางการค้าที่ละเอียดอ่อนในระดับที่ไม่สมส่วนกับผลประโยชน์ทางสังคม คำมั่นสัญญายังระบุด้วยว่าข้อมูลรายละเอียดเพิ่มเติมที่ไม่สามารถแบ่งปันต่อสาธารณะได้ควรแบ่งปันกับรัฐบาลของประเทศที่บริษัทตั้งอยู่ ซึ่งก็คือสหรัฐอเมริกาในกรณีของ Google

บริษัทต่างๆ ยังให้คำมั่นสัญญาว่าจะอธิบายว่าผู้มีส่วนได้ส่วนเสียภายนอก เช่น รัฐบาล ภาคประชาสังคม นักวิชาการ และประชาชน มีส่วนร่วมในกระบวนการประเมินความเสี่ยงของโมเดล AI ของตนอย่างไร ความล้มเหลวของ Google ในการตอบคำถามโดยตรงว่าได้ส่ง Gemini 2.5 Pro ให้กับผู้ประเมินของรัฐบาลสหรัฐฯ หรือสหราชอาณาจักรหรือไม่ อาจเป็นการละเมิดคำมั่นสัญญานี้เช่นกัน

การให้ความสำคัญกับการใช้งานมากกว่าความโปร่งใส

การไม่มีรายงานความปลอดภัยได้ก่อให้เกิดความกังวลว่า Google อาจให้ความสำคัญกับการใช้งานอย่างรวดเร็วมากกว่าความโปร่งใสและการประเมินความปลอดภัยอย่างละเอียดถี่ถ้วน Sandra Wachter ศาสตราจารย์และนักวิจัยอาวุโสที่ Oxford Internet Institute เน้นย้ำถึงความสำคัญของความโปร่งใสในการวิจัยและนวัตกรรมที่มีความรับผิดชอบ เธอเปรียบเทียบกับอุตสาหกรรมอื่นๆ โดยระบุว่า “ถ้าเป็นรถยนต์หรือเครื่องบิน เราคงไม่พูดว่า: มานำสิ่งนี้ออกสู่ตลาดให้เร็วที่สุดเท่าที่จะทำได้ และเราจะตรวจสอบด้านความปลอดภัยในภายหลัง” Wachter แสดงความกังวลว่ามีทัศนคติที่แพร่หลายในสาขา AI เชิงสร้างสรรค์ว่า “นำสิ่งนี้ออกไปและกังวล ตรวจสอบ และแก้ไขปัญหาในภายหลัง”

การเปลี่ยนแปลงทางการเมืองและแรงกดดันในการแข่งขัน

การเปลี่ยนแปลงทางการเมืองล่าสุด ควบคู่ไปกับการแข่งขันที่ทวีความรุนแรงขึ้นระหว่างบริษัท Big Tech อาจมีส่วนทำให้เกิดการเปลี่ยนแปลงจากข้อผูกพันด้านความปลอดภัยก่อนหน้านี้ เนื่องจากบริษัทต่างๆ เร่งรีบในการใช้งานโมเดล AI Wachter ตั้งข้อสังเกตว่า “จุดกดดันสำหรับบริษัทเหล่านี้ในการเร็วขึ้น เร็วขึ้น เป็นที่หนึ่ง ดีที่สุด และครองตลาด มีความแพร่หลายมากกว่าที่เคยเป็น” พร้อมเสริมว่ามาตรฐานความปลอดภัยกำลังลดลงในอุตสาหกรรม

มาตรฐานที่ลดลงเหล่านี้อาจเกิดจากความกังวลที่เพิ่มขึ้นในหมู่ประเทศด้านเทคโนโลยีและรัฐบาลบางแห่งว่าขั้นตอนความปลอดภัยของ AI กำลังขัดขวางนวัตกรรม ในสหรัฐอเมริกา ฝ่ายบริหารของ Trump ได้บ่งชี้ความตั้งใจที่จะใช้แนวทางที่ไม่เข้มงวดต่อกฎระเบียบ AI เมื่อเทียบกับฝ่ายบริหารของ Biden ฝ่ายบริหารชุดใหม่ได้ยกเลิกคำสั่งฝ่ายบริหารยุค Biden เกี่ยวกับ AI แล้ว และได้สร้างความสัมพันธ์ที่ใกล้ชิดยิ่งขึ้นกับผู้นำด้านเทคโนโลยี ในการประชุมสุดยอด AI ที่ปารีสเมื่อเร็ว ๆ นี้ รองประธานาธิบดีสหรัฐฯ JD Vance กล่าวว่า “นโยบาย AI ที่สนับสนุนการเติบโต” ควรได้รับความสำคัญเหนือความปลอดภัย และ AI เป็น “โอกาสที่ฝ่ายบริหารของ Trump จะไม่ปล่อยให้หลุดมือไป”

ในการประชุมสุดยอดเดียวกันนั้น ทั้งสหราชอาณาจักรและสหรัฐอเมริกาปฏิเสธที่จะลงนามในข้อตกลงระหว่างประเทศเกี่ยวกับปัญญาประดิษฐ์ที่ส่งเสริมแนวทางที่ “เปิดกว้าง” “ครอบคลุม” และ “มีจริยธรรม” ในการพัฒนาเทคโนโลยี

ความจำเป็นสำหรับข้อกำหนดด้านความโปร่งใสที่ชัดเจน

Bankston เน้นย้ำว่า “หากเราไม่สามารถวางใจให้บริษัทเหล่านี้ปฏิบัติตามแม้แต่ข้อผูกพันด้านความปลอดภัยและความโปร่งใสขั้นพื้นฐานที่สุดเมื่อเปิดตัวโมเดลใหม่ ซึ่งเป็นข้อผูกพันที่พวกเขาทำโดยสมัครใจ พวกเขากำลังเปิดตัวโมเดลเร็วเกินไปในการแข่งขันเพื่อครองตลาด” เขาเสริมว่าในขณะที่นักพัฒนา AI ยังคงล้มเหลวในข้อผูกพันเหล่านี้ มันจะเป็นหน้าที่ของฝ่ายนิติบัญญัติในการพัฒนาและบังคับใช้ข้อกำหนดด้านความโปร่งใสที่ชัดเจนซึ่งบริษัทไม่สามารถหลีกเลี่ยงได้

ผลกระทบในวงกว้างต่อการกำกับดูแล AI

ข้อถกเถียงเกี่ยวกับ Gemini 2.5 Pro ของ Google และรายงานความปลอดภัยที่หายไปเน้นย้ำถึงความจำเป็นอย่างยิ่งสำหรับกรอบการกำกับดูแล AI ที่แข็งแกร่ง กรอบงานเหล่านี้ควรกำหนดประเด็นสำคัญต่างๆ เช่น:

  • ความโปร่งใส: สร้างความมั่นใจว่านักพัฒนา AI มีความโปร่งใสเกี่ยวกับความสามารถ ข้อจำกัด และความเสี่ยงที่อาจเกิดขึ้นของโมเดล
  • ความรับผิดชอบ: กำหนดสายการบัญชีที่ชัดเจนสำหรับการพัฒนาและการใช้งานระบบ AI
  • ความปลอดภัย: ดำเนินการทดสอบความปลอดภัยและขั้นตอนการประเมินอย่างเข้มงวดเพื่อลดความเสี่ยงของอันตราย
  • ข้อพิจารณาด้านจริยธรรม: บูรณาการหลักการทางจริยธรรมในการออกแบบและพัฒนาระบบ AI
  • การมีส่วนร่วมของสาธารณชน: มีส่วนร่วมกับสาธารณชนเพื่อส่งเสริมความเข้าใจที่กว้างขึ้นเกี่ยวกับ AI และผลกระทบของมัน
  • ความร่วมมือระหว่างประเทศ: ทำงานร่วมกันในระดับสากลเพื่อพัฒนากฎเกณฑ์ร่วมกันและแนวปฏิบัติที่ดีที่สุดสำหรับการกำกับดูแล AI

การขาดความโปร่งใสเกี่ยวกับ Gemini 2.5 Pro เน้นให้เห็นถึงผลกระทบที่อาจเกิดขึ้นจากการละเลยแง่มุมที่สำคัญของการกำกับดูแล AI หากไม่มีความโปร่งใสและความรับผิดชอบที่เพียงพอ จะเป็นการยากที่จะประเมินผลกระทบที่แท้จริงของระบบ AI และเพื่อให้แน่ใจว่าระบบได้รับการพัฒนาและใช้งานในลักษณะที่มีความรับผิดชอบและมีจริยธรรม

ก้าวไปข้างหน้า: การเรียกร้องให้มีความรับผิดชอบมากขึ้น

อุตสาหกรรม AI อยู่ในช่วงหัวเลี้ยวหัวต่อที่สำคัญ ในขณะที่เทคโนโลยี AI มีความทรงพลังและแพร่หลายมากขึ้น สิ่งสำคัญคือผู้พัฒนาต้องให้ความสำคัญกับความปลอดภัย ความโปร่งใส และข้อพิจารณาด้านจริยธรรม ข้อถกเถียงเกี่ยวกับ Gemini 2.5 Pro เป็นเครื่องเตือนใจว่าข้อผูกพันโดยสมัครใจนั้นไม่เพียงพอเสมอไป รัฐบาลและหน่วยงานกำกับดูแลต้องมีบทบาทเชิงรุกมากขึ้นในการกำหนดมาตรฐานที่ชัดเจนและบังคับใช้การปฏิบัติตามข้อกำหนด

นอกจากนี้ สิ่งสำคัญคือสำหรับนักพัฒนา AI ที่จะต้องมีส่วนร่วมกับสาธารณชนและส่งเสริมความเข้าใจที่กว้างขึ้นเกี่ยวกับ AI และผลกระทบของมัน ซึ่งรวมถึงความโปร่งใสเกี่ยวกับข้อจำกัดและความเสี่ยงที่อาจเกิดขึ้นของระบบ AI รวมถึงขั้นตอนที่ดำเนินการเพื่อลดความเสี่ยงเหล่านั้น ด้วยการทำงานร่วมกัน อุตสาหกรรม AI รัฐบาล และประชาชนสามารถมั่นใจได้ว่าเทคโนโลยี AI ได้รับการพัฒนาและใช้งานในลักษณะที่เป็นประโยชน์ต่อสังคมโดยรวม