หลุมหลบภัยวันสิ้นโลกของอดีตหัวหน้านักวิทยาศาสตร์ OpenAI

Ilya Sutskever ผู้ร่วมก่อตั้งและอดีตหัวหน้านักวิทยาศาสตร์ที่ OpenAI มีวิสัยทัศน์ที่ไม่เหมือนใครสำหรับอนาคต ซึ่งรวมถึงหลุมหลบภัยวันสิ้นโลก นี่ไม่ใช่แนวคิดที่หยั่งรากในนิยายวิทยาศาสตร์ แต่มาจากความเข้าใจอย่างลึกซึ้งของเขาเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นที่เกี่ยวข้องกับการสร้าง Artificial General Intelligence (AGI) ซึ่งเป็นระดับของ AI ที่เหนือกว่าสติปัญญาของมนุษย์ แผนของ Sutskever ซึ่งคิดขึ้นหลายเดือนก่อนที่เขาจะออกจาก OpenAI มีเป้าหมายเพื่อให้เป็นที่หลบภัยสำหรับนักวิจัย AI เมื่อพวกเขาบรรลุเป้าหมายที่เข้าใจยากของ AGI

การกำเนิดของที่พักพิงไฮเทค

ข้อเสนอของ Sutskever ไม่ใช่คำสั่งบังคับ มีรายงานว่าเขารับรองกับทีมของเขาว่าการเข้าไปในบังเกอร์นั้นเป็นทางเลือกทั้งหมด นี่เป็นการเน้นมุมมองที่แตกต่างกันเกี่ยวกับความเสี่ยงของ AGI ซึ่งยอมรับถึงผลลัพธ์ที่อาจเกิดขึ้นร้ายแรง ในขณะที่เคารพความเป็นอิสระของแต่ละบุคคลเมื่อเผชิญกับภัยคุกคามดังกล่าว การกระทำของเขาเผยให้เห็นถึงความตระหนักอย่างลึกซึ้งถึงโอกาสอันยิ่งใหญ่และความเสี่ยงที่อาจเกิดขึ้นร้ายแรงในการพัฒนา AI ในฐานะที่เป็นผู้นำด้านการวิจัยด้านความปลอดภัยของ AI Sutskever ได้อุทิศอาชีพของเขาเพื่อสร้างเครือข่ายประสาทการเรียนรู้เชิงลึกขั้นสูงที่สามารถคิดและใช้เหตุผลเหมือนมนุษย์ได้

AGI Holy Grail

Artificial general intelligence (AGI) – เป้าหมายสูงสุดของการสร้างเครื่องจักรที่มีความสามารถทางปัญญาในระดับมนุษย์ – ยังคงเป็นรางวัลที่นักวิจัย AI ปรารถนา เป็นตัวแทนของศักยภาพในการสร้างรูปแบบใหม่ของสิ่งมีชีวิตที่มีความรู้สึก แม้ว่าจะเป็นสิ่งมีชีวิตที่ใช้ซิลิคอนมากกว่าคาร์บอน Sutskever ไม่เพียงแต่มุ่งเน้นที่การบรรลุเป้าหมายนี้เท่านั้น แต่ยังมุ่งเน้นไปที่การลดผลกระทบที่อาจเกิดขึ้น ข้อเสนอหลุมหลบภัยของเขาเน้นย้ำถึงความร้ายแรงของข้อกังวลเหล่านี้และความจำเป็นในการดำเนินมาตรการเชิงรุกเพื่อจัดการกับความเสี่ยงที่เกี่ยวข้องกับ AGI

มาตรการป้องกันไว้ก่อน

ที่พักพิงวันสิ้นโลกของ Sutskever ไม่ใช่จินตนาการแห่งอนาคต แต่เป็นแผนที่เป็นรูปธรรมที่ออกแบบมาเพื่อปกป้องนักวิจัย OpenAI เมื่อบรรลุ AGI ดังที่เขารายงานกับทีมของเขาในปี 2023 หลายเดือนก่อนที่เขาจะออกจากตำแหน่ง หลุมหลบภัยจะให้การป้องกันที่จำเป็นในโลกที่เทคโนโลยีอันทรงพลังดังกล่าวจะดึงดูดความสนใจอย่างเข้มข้นจากรัฐบาลทั่วโลก เหตุผลของเขานั้นง่าย AGI โดยธรรมชาติแล้วจะเป็นเทคโนโลยีที่มีพลังมหาศาล ซึ่งอาจทำให้ไม่มั่นคงและต้องมีการปกป้องอย่างระมัดระวัง

การป้องกันและทางเลือก

การรับประกันของ Sutskever ว่าการเข้าไปในบังเกอร์จะเป็นทางเลือกหรือไม่ แสดงให้เห็นถึงความสมดุลระหว่างการป้องกันและการมีอิสระส่วนบุคคล วิสัยทัศน์ของเขาไม่ใช่เกี่ยวกับการบังคับใช้การล็อกดาวน์ แต่เกี่ยวกับการจัดหาที่หลบภัยสำหรับผู้ที่รู้สึกเปราะบางหลังจากการตื่นตัวของ A