อดีตผู้นำนโยบาย OpenAI โจมตีบริษัทเรื่องความปลอดภัย AI

การตำหนิผ่านสื่อสังคมออนไลน์

เมื่อวันพุธที่ผ่านมา Miles Brundage อดีตนักวิจัยนโยบายที่มีชื่อเสียงของ OpenAI ได้วิพากษ์วิจารณ์บริษัทอย่างเปิดเผย เขา குற்றம்หา OpenAI ว่า “เขียนประวัติศาสตร์ใหม่” เกี่ยวกับแนวทางการปรับใช้ระบบ AI ที่อาจมีความเสี่ยง Brundage ซึ่งก่อนหน้านี้เคยมีบทบาทสำคัญในการกำหนดกรอบนโยบายของ OpenAI แสดงความกังวลของเขาผ่านสื่อสังคมออนไลน์ ก่อให้เกิดการถกเถียงเกี่ยวกับจุดยืนที่เปลี่ยนแปลงไปของบริษัทในเรื่องความปลอดภัยของ AI

ปรัชญา 'การปรับใช้แบบวนซ้ำ' ของ OpenAI

คำวิจารณ์ของ Brundage เกิดขึ้นหลังจากเอกสารที่ OpenAI เผยแพร่เมื่อต้นสัปดาห์ เอกสารนี้ให้รายละเอียดเกี่ยวกับปรัชญาปัจจุบันของบริษัทเกี่ยวกับความปลอดภัยและการจัดแนว AI (alignment) การจัดแนวในบริบทนี้หมายถึงกระบวนการออกแบบระบบ AI ที่ทำงานในลักษณะที่คาดเดาได้ เป็นที่ต้องการ และอธิบายได้

ในเอกสาร OpenAI อธิบายว่าการพัฒนา Artificial General Intelligence (AGI) เป็น “เส้นทางต่อเนื่อง” AGI ถูกกำหนดอย่างกว้างๆ ว่าเป็นระบบ AI ที่สามารถทำงานทางปัญญาใดๆ ที่มนุษย์สามารถทำได้ OpenAI ระบุว่าเส้นทางต่อเนื่องนี้จำเป็นต้องมี “การปรับใช้และเรียนรู้อย่างวนซ้ำ” จากเทคโนโลยี AI สิ่งนี้ชี้ให้เห็นถึงแนวทางแบบค่อยเป็นค่อยไป โดยที่บทเรียนที่ได้เรียนรู้จากการปรับใช้ก่อนหน้านี้จะแจ้งให้ทราบถึงการปรับใช้ในภายหลัง

ข้อโต้แย้ง GPT-2: ประเด็นที่ขัดแย้ง

อย่างไรก็ตาม Brundage ท้าทายคำบรรยายของ OpenAI โดยเฉพาะอย่างยิ่งเกี่ยวกับ GPT-2 เขายืนยันว่า GPT-2 ในขณะที่เปิดตัวนั้น สมควรได้รับการระมัดระวังอย่างมาก การยืนยันนี้ขัดแย้งโดยตรงกับความหมายที่ว่ากลยุทธ์การปรับใช้แบบวนซ้ำในปัจจุบันแสดงถึงการเปลี่ยนแปลงจากแนวทางปฏิบัติในอดีต

Brundage โต้แย้งว่าแนวทางที่ระมัดระวังของ OpenAI ในการเปิดตัว GPT-2 นั้น สอดคล้องกับกลยุทธ์การปรับใช้แบบวนซ้ำในปัจจุบันของบริษัท เขาตั้งสมมติฐานว่าการวางกรอบประวัติศาสตร์ของบริษัทในปัจจุบันพยายามที่จะลดความเสี่ยงที่เกี่ยวข้องกับแบบจำลองก่อนหน้านี้

ความกังวลเกี่ยวกับการเปลี่ยนแปลงภาระการพิสูจน์

องค์ประกอบหลักของคำวิจารณ์ของ Brundage มุ่งเน้นไปที่สิ่งที่เขามองว่าเป็นการเปลี่ยนแปลงภาระการพิสูจน์เกี่ยวกับข้อกังวลด้านความปลอดภัยของ AI เขาแสดงความกังวลว่าเอกสารของ OpenAI มีเป้าหมายเพื่อสร้างกรอบที่ข้อกังวลเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นจะถูกระบุว่าเป็น “การตื่นตระหนก”

ตามที่ Brundage กล่าว กรอบนี้จะต้องมี “หลักฐานที่ชัดเจนถึงอันตรายที่ใกล้จะเกิดขึ้น” เพื่อพิสูจน์ความชอบธรรมของการดำเนินการใดๆ เพื่อลดความเสี่ยงเหล่านั้น เขาโต้แย้งว่าความคิดเช่นนี้ “อันตรายมาก” เมื่อต้องรับมือกับระบบ AI ขั้นสูง ซึ่งผลที่ตามมาที่ไม่คาดฝันอาจมีผลกระทบอย่างมีนัยสำคัญ

ข้อกล่าวหาเรื่องการจัดลำดับความสำคัญของ 'ผลิตภัณฑ์ที่ฉูดฉาด'

OpenAI เคยเผชิญกับข้อกล่าวหาในอดีตว่าให้ความสำคัญกับการพัฒนาและเปิดตัว “ผลิตภัณฑ์ที่ฉูดฉาด” มากกว่าการพิจารณาด้านความปลอดภัย นักวิจารณ์ได้แนะนำว่าบริษัทได้เร่งเปิดตัวผลิตภัณฑ์ในบางครั้งเพื่อให้ได้เปรียบในการแข่งขันในภูมิทัศน์ AI ที่มีการพัฒนาอย่างรวดเร็ว

การยุบทีม AGI Readiness และการลาออก

สิ่งที่กระตุ้นความกังวลเกี่ยวกับความมุ่งมั่นของ OpenAI ในด้านความปลอดภัยคือการยุบทีม AGI readiness เมื่อปีที่แล้ว ทีมนี้ได้รับมอบหมายให้ประเมินและเตรียมพร้อมสำหรับผลกระทบทางสังคมที่อาจเกิดขึ้นจาก AGI โดยเฉพาะ

นอกจากนี้ นักวิจัยด้านความปลอดภัยและนโยบาย AI จำนวนหนึ่งได้ลาออกจาก OpenAI ซึ่งหลายคนได้เข้าร่วมกับบริษัทคู่แข่งในเวลาต่อมา การลาออกเหล่านี้ทำให้เกิดคำถามเกี่ยวกับวัฒนธรรมภายในและลำดับความสำคัญภายใน OpenAI

แรงกดดันด้านการแข่งขันที่เพิ่มขึ้น

ภูมิทัศน์การแข่งขันในสาขา AI ทวีความรุนแรงขึ้นอย่างมากในช่วงเวลาที่ผ่านมา ตัวอย่างเช่น ห้องปฏิบัติการ AI ของจีน DeepSeek ได้รับความสนใจจากทั่วโลกด้วยโมเดล R1 ที่เปิดให้ใช้งานได้อย่างอิสระ โมเดลนี้แสดงให้เห็นถึงประสิทธิภาพที่เทียบเท่ากับโมเดล o1 ‘reasoning’ ของ OpenAI ในเกณฑ์มาตรฐานหลักหลายประการ

Sam Altman ซีอีโอของ OpenAI ได้ยอมรับต่อสาธารณะว่าความก้าวหน้าของ DeepSeek ได้ลดความเป็นผู้นำทางเทคโนโลยีของ OpenAI ลง Altman ยังระบุด้วยว่า OpenAI จะเร่งการเปิดตัวผลิตภัณฑ์บางอย่างเพื่อเพิ่มความสามารถในการแข่งขัน

เดิมพันทางการเงิน

แรงกดดันทางการเงินต่อ OpenAI มีมาก บริษัทกำลังดำเนินการโดยขาดทุนอย่างมีนัยสำคัญ โดยมีหนี้สินหลายพันล้านดอลลาร์ต่อปี การคาดการณ์ชี้ให้เห็นว่าการขาดทุนเหล่านี้อาจเพิ่มขึ้นสามเท่าเป็น 14 พันล้านดอลลาร์ภายในปี 2569

วงจรการเปิดตัวผลิตภัณฑ์ที่เร็วขึ้นอาจปรับปรุงแนวโน้มทางการเงินของ OpenAI ในระยะสั้น อย่างไรก็ตาม ผู้เชี่ยวชาญเช่น Brundage ตั้งคำถามว่าการเร่งความเร็วนี้เกิดขึ้นโดยต้องแลกกับการพิจารณาด้านความปลอดภัยในระยะยาวหรือไม่ การแลกเปลี่ยนระหว่างนวัตกรรมที่รวดเร็วและการพัฒนาอย่างมีความรับผิดชอบยังคงเป็นประเด็นหลักของการถกเถียง

การเจาะลึกการอภิปรายเรื่องการปรับใช้แบบวนซ้ำ

แนวคิดของ “การปรับใช้แบบวนซ้ำ” เป็นศูนย์กลางของการอภิปรายในปัจจุบันเกี่ยวกับความปลอดภัยของ AI ผู้เสนอโต้แย้งว่ามันช่วยให้สามารถทดสอบและเรียนรู้ในโลกแห่งความเป็นจริงได้ ทำให้ผู้พัฒนาสามารถระบุและแก้ไขปัญหาที่อาจเกิดขึ้นได้เมื่อเกิดขึ้น แนวทางนี้ตรงกันข้ามกับกลยุทธ์ที่ระมัดระวังมากขึ้นในการทดสอบและวิเคราะห์ก่อนการปรับใช้อย่างละเอียด

อย่างไรก็ตาม นักวิจารณ์การปรับใช้แบบวนซ้ำแสดงความกังวลเกี่ยวกับศักยภาพของผลที่ตามมาที่ไม่คาดฝัน พวกเขาโต้แย้งว่าการปล่อยระบบ AI สู่โลกภายนอกก่อนที่จะเข้าใจอย่างถ่องแท้อาจนำไปสู่ผลลัพธ์ที่ไม่ตั้งใจและอาจเป็นอันตรายได้ ความท้าทายอยู่ที่การสร้างสมดุลระหว่างประโยชน์ของการเรียนรู้ในโลกแห่งความเป็นจริงและความเสี่ยงที่เกี่ยวข้องกับการปรับใช้เทคโนโลยีที่อาจคาดเดาไม่ได้

บทบาทของความโปร่งใสและการเปิดกว้าง

อีกแง่มุมที่สำคัญของการอภิปรายคือความโปร่งใสและการเปิดกว้าง บางคนโต้แย้งว่าความโปร่งใสที่มากขึ้นเกี่ยวกับการพัฒนาและการปรับใช้ AI เป็นสิ่งจำเป็นสำหรับการสร้างความไว้วางใจของสาธารณชนและรับรองความรับผิดชอบ ซึ่งรวมถึงการแบ่งปันข้อมูลเกี่ยวกับความเสี่ยงและข้อจำกัดที่อาจเกิดขึ้นของระบบ AI

อย่างไรก็ตาม คนอื่นๆ โต้แย้งว่าการเปิดกว้างมากเกินไปอาจถูกใช้ประโยชน์โดยผู้ไม่หวังดี ซึ่งอาจนำไปสู่การใช้เทคโนโลยี AI ในทางที่ผิด การหาสมดุลที่เหมาะสมระหว่างความโปร่งใสและความปลอดภัยยังคงเป็นความท้าทายที่ซับซ้อน

ความจำเป็นของกรอบการกำกับดูแลที่แข็งแกร่ง

เมื่อระบบ AI มีความซับซ้อนมากขึ้นและรวมเข้ากับแง่มุมต่างๆ ของสังคม ความจำเป็นของกรอบการกำกับดูแลที่แข็งแกร่งจึงมีความสำคัญมากขึ้น กรอบเหล่านี้ควรจัดการกับปัญหาต่างๆ เช่น ความปลอดภัย ความรับผิดชอบ ความโปร่งใส และข้อพิจารณาด้านจริยธรรม

การพัฒนากลไกการกำกับดูแลที่มีประสิทธิภาพต้องอาศัยความร่วมมือระหว่างนักวิจัย ผู้กำหนดนโยบาย ผู้มีส่วนได้ส่วนเสียในอุตสาหกรรม และสาธารณชน เป้าหมายคือการสร้างกรอบที่ส่งเสริมนวัตกรรมในขณะที่ลดความเสี่ยงที่อาจเกิดขึ้นและรับรองว่า AI จะเป็นประโยชน์ต่อสังคมโดยรวม

ผลกระทบในวงกว้างสำหรับอนาคตของ AI

การอภิปรายเกี่ยวกับแนวทางของ OpenAI ในด้านความปลอดภัยของ AI สะท้อนให้เห็นถึงความกังวลในวงกว้างเกี่ยวกับอนาคตของการพัฒนา AI ในขณะที่ระบบ AI ยังคงก้าวหน้าอย่างรวดเร็วอย่างที่ไม่เคยมีมาก่อน คำถามเกี่ยวกับผลกระทบที่อาจเกิดขึ้นต่อสังคมจึงมีความเร่งด่วนมากขึ้น

ความท้าทายอยู่ที่การควบคุมศักยภาพในการเปลี่ยนแปลงของ AI ในขณะที่ลดความเสี่ยงที่เกี่ยวข้องกับการพัฒนาและการปรับใช้ สิ่งนี้ต้องการแนวทางที่หลากหลายซึ่งครอบคลุมการวิจัยทางเทคนิค การพัฒนานโยบาย ข้อพิจารณาด้านจริยธรรม และการมีส่วนร่วมของสาธารณชน อนาคตของ AI จะขึ้นอยู่กับการเลือกที่เราทำในวันนี้

การอภิปรายที่กำลังดำเนินอยู่ทำหน้าที่เป็นเครื่องเตือนใจถึงความสำคัญของการตรวจสอบอย่างมีวิจารณญาณและการสนทนาอย่างเปิดเผยในสาขา AI ในขณะที่เทคโนโลยี AI ยังคงพัฒนาต่อไป สิ่งสำคัญคือต้องมีการสนทนาอย่างต่อเนื่องเกี่ยวกับผลกระทบที่อาจเกิดขึ้นและเพื่อให้แน่ใจว่าการพัฒนาของพวกเขาจะสอดคล้องกับค่านิยมของมนุษย์และความเป็นอยู่ที่ดีของสังคม