ในปี 2019 Karen Hao นักข่าวมากประสบการณ์จาก MIT Technology Review ได้นำเสนอเรื่องราวเกี่ยวกับ OpenAI ต่อบรรณาธิการของเธอ ซึ่งในขณะนั้นบริษัทส่วนใหญ่ยังดำเนินการอยู่ภายใต้เรดาร์ สิ่งที่เกิดขึ้นคือการเดินทางที่เต็มไปด้วยหักมุมที่ไม่คาดฝัน เผยให้เห็นว่าความทะเยอทะยานของ OpenAI แตกต่างจากเป้าหมายเริ่มต้นอย่างไร
ฉันได้เหยียบเข้าไปในสำนักงานของ OpenAI เป็นครั้งแรกเมื่อวันที่ 7 สิงหาคม 2019 Greg Brockman ซึ่งเป็น CTO ของบริษัทในขณะนั้น ทักทายฉันด้วยรอยยิ้มที่ลังเล โดยยอมรับว่าการให้สิทธิ์การเข้าถึงอย่างกว้างขวางเช่นนี้เป็นสิ่งที่เกิดขึ้นเป็นครั้งแรกสำหรับพวกเขา
ในขณะที่ OpenAI อาจเป็นชื่อที่ไม่คุ้นเคยสำหรับบุคคลทั่วไป แต่ฉันในฐานะนักข่าวที่ติดตามภูมิทัศน์ที่พัฒนาตลอดเวลาของปัญญาประดิษฐ์ได้ติดตามการพัฒนาของมันอย่างใกล้ชิด
จุดเริ่มต้นและกระแสที่เปลี่ยนไปของ OpenAI
ก่อนปี 2019 OpenAI ถูกมองว่าเป็นผู้ที่มีความโดดเด่นในชุมชนวิจัย AI คำกล่าวอ้างที่กล้าหาญว่าจะประสบความสำเร็จใน Artificial General Intelligence (AGI) ภายในทศวรรษได้รับการตอบสนองด้วยความสงสัยจากหลาย ๆ คน แม้จะได้รับการสนับสนุนทางการเงินจำนวนมาก แต่บริษัทก็ขาดทิศทางที่ชัดเจน และความพยายามทางการตลาดมักถูกมองว่าเป็นการโฆษณาเกินจริงงานวิจัยที่ผู้เชี่ยวชาญอื่น ๆ ถือว่าไม่เป็นต้นฉบับ ถึงกระนั้น OpenAI ก็ดึงดูดความอิจฉาได้เช่นกัน ในฐานะองค์กรที่ไม่แสวงหาผลกำไร บริษัทได้ประกาศว่าไม่มีความสนใจในการทำให้เป็นเชิงพาณิชย์ สร้างสภาพแวดล้อมที่ไม่เหมือนใครสำหรับการสำรวจทางปัญญาโดยปราศจากข้อจำกัดของแรงกดดันทางการเงิน
อย่างไรก็ตาม ในช่วงหกเดือนก่อนการมาเยือนของฉัน การเปลี่ยนแปลงอย่างรวดเร็วหลายครั้งได้บอกเป็นนัยถึงการเปลี่ยนแปลงครั้งสำคัญในทิศทางของ OpenAI สัญญาณแรกคือการตัดสินใจที่ขัดแย้งกันในการระงับ GPT-2 แม้จะเผยแพร่ความสามารถของมัน ต่อมาคือการประกาศแต่งตั้ง Sam Altman เป็น CEO หลังจากการลาออกจาก Y Combinator (YC) ควบคู่ไปกับการสร้างโครงสร้าง "capped-profit" ท่ามกลางการพัฒนาเหล่านี้ OpenAI ได้เปิดเผยความร่วมมือกับ Microsoft โดยให้ความสำคัญกับยักษ์ใหญ่ด้านเทคโนโลยีในการทำให้เทคโนโลยีของ OpenAI เป็นเชิงพาณิชย์ และการใช้งานบริการคลาวด์ Microsoft Azure แต่เพียงผู้เดียว
การประกาศแต่ละครั้งเหล่านี้ก่อให้เกิดข้อถกเถียง การเก็งกำไร และความสนใจที่เพิ่มขึ้น ซึ่งขยายออกไปนอกขอบเขตของอุตสาหกรรมเทคโนโลยี เมื่อการเปลี่ยนแปลงคลี่คลาย มันเป็นเรื่องยากที่จะเข้าใจความสำคัญของมันอย่างเต็มที่ อย่างไรก็ตาม เป็นที่ชัดเจนว่า OpenAI เริ่มมีอิทธิพลอย่างมากต่อการวิจัย AI และวิธีที่ผู้กำหนดนโยบายเข้าใจเทคโนโลยี การตัดสินใจเปลี่ยนไปสู่ธุรกิจที่แสวงหาผลกำไรบางส่วนแน่นอนว่าจะมีผลกระทบในวงกว้างในอุตสาหกรรมและรัฐบาล
เย็นวันหนึ่ง ด้วยการสนับสนุนจากบรรณาธิการของฉัน ฉันได้ติดต่อ Jack Clark ผู้อำนวยการด้านนโยบายของ OpenAI ซึ่งฉันเคยพูดคุยด้วยก่อนหน้านี้ ฉันเสนอโปรไฟล์เกี่ยวกับ OpenAI โดยรู้สึกว่ามันเป็นช่วงเวลาสำคัญในประวัติศาสตร์ของบริษัท Clark เชื่อมต่อฉันกับหัวหน้าฝ่ายสื่อสาร ซึ่งได้ขยายคำเชิญให้สัมภาษณ์ผู้นำและฝังตัวอยู่ในบริษัทเป็นเวลาสามวัน
ภายใน OpenAI: ภารกิจและความทะเยอทะยาน
Brockman และฉันเข้าร่วมโดยหัวหน้านักวิทยาศาสตร์ Ilya Sutskever ในห้องประชุมกระจก พวกเขานั่งเคียงข้างกันเสริมซึ่งกันและกันในบทบาทของกันและกัน Brockman โปรแกรมเมอร์และผู้ปฏิบัติงาน ดูเหมือนกระตือรือร้นที่จะสร้างความประทับใจในเชิงบวก ในขณะที่ Sutskever นักวิจัยและนักปรัชญา ดูเหมือนจะผ่อนคลายและแยกตัวออกมากกว่า
ฉันเริ่มต้นด้วยการถามเกี่ยวกับภารกิจของ OpenAI: เพื่อให้แน่ใจว่า AGI จะเป็นประโยชน์ ทำไมต้องลงทุนหลายพันล้านในปัญหานี้มากกว่าปัญหาอื่น ๆ
Brockman ผู้ซึ่งมีความเชี่ยวชาญในการปกป้องตำแหน่งของ OpenAI กล่าวว่า AGI มีความสำคัญอย่างยิ่งต่อการแก้ปัญหาที่ซับซ้อนเกินความสามารถของมนุษย์ เขาอ้างถึงการเปลี่ยนแปลงสภาพภูมิอากาศและยาเป็นตัวอย่าง แสดงให้เห็นถึงศักยภาพของ AGI ในการวิเคราะห์ข้อมูลจำนวนมหาศาลและเร่งความก้าวหน้าในด้านที่สำคัญเหล่านี้
เขาเล่าถึงประสบการณ์ของเพื่อนกับความผิดปกติที่หายาก โดยเน้นว่า AGI สามารถปรับปรุงการวินิจฉัยและการรักษาได้อย่างไรโดยการเชื่อมต่อผู้เชี่ยวชาญอย่างมีประสิทธิภาพ
จากนั้นฉันถามเกี่ยวกับความแตกต่างระหว่าง AGI และ AI
AGI ซึ่งเคยเป็นแนวคิดเฉพาะกลุ่ม ได้รับแรงผลักดัน ส่วนใหญ่เป็นเพราะอิทธิพลของ OpenAI AGI หมายถึง AI สมมุติที่ตรงหรือเกินสติปัญญาของมนุษย์ในงานที่มีคุณค่าทางเศรษฐกิจมากที่สุด ในขณะที่นักวิจัยมีความก้าวหน้า การถกเถียงยังคงมีอยู่เกี่ยวกับความเป็นไปได้ในการจำลองสติของมนุษย์
ในทางกลับกัน AI หมายถึงทั้งเทคโนโลยีปัจจุบันและความสามารถในอนาคตอันใกล้ โดยแสดงให้เห็นถึงการใช้งานในการบรรเทาการเปลี่ยนแปลงสภาพภูมิอากาศและการดูแลสุขภาพ
Sutskever เสริมว่า AGI สามารถแก้ปัญหาโลกโดยเปิดใช้งานคอมพิวเตอร์อัจฉริยะเพื่อสื่อสารและทำงานร่วมกันอย่างมีประสิทธิภาพมากกว่ามนุษย์ โดยหลีกเลี่ยงปัญหาด้านแรงจูงใจ
คำแถลงนี้ทำให้ฉันตั้งคำถามว่า AGI ตั้งใจที่จะแทนที่มนุษย์หรือไม่ Brockman ตอบว่าเทคโนโลยีควรให้บริการผู้คนและรับประกัน "เสรีภาพทางเศรษฐกิจ" ในขณะที่รักษาระดับคุณภาพชีวิตของพวกเขา
Brockman กล่าวว่าบทบาทของ OpenAI ไม่ใช่การพิจารณาว่า AGI จะถูกสร้างขึ้นหรือไม่ แต่เพื่อมีอิทธิพลต่อสถานการณ์ที่มันถูกสร้างขึ้น เขาเน้นย้ำว่าภารกิจของพวกเขาคือการทำให้แน่ใจว่า AGI เป็นประโยชน์ต่อมนุษยชาติทั้งหมดโดยการสร้างและแจกจ่ายผลประโยชน์ทางเศรษฐกิจ
การสนทนาของเราดำเนินไปเป็นวงกลม โดยไม่ประสบความสำเร็จในการได้รับรายละเอียดที่เป็นรูปธรรม ฉันพยายามใช้วิธีที่แตกต่างออกไป โดยถามเกี่ยวกับข้อเสียที่อาจเกิดขึ้นจากเทคโนโลยี
Brockman อ้างถึง deepfakes เป็นแอปพลิเคชันเชิงลบที่เป็นไปได้
ฉันยกประเด็นผลกระทบต่อสิ่งแวดล้อมของ AI เอง
Sutskever ยอมรับปัญหา แต่แย้งว่า AGI สามารถตอบโต้ต้นทุนด้านสิ่งแวดล้อมได้ เขาเน้นย้ำถึงความจำเป็นสำหรับศูนย์ข้อมูลสีเขียว
"ศูนย์ข้อมูลเป็นผู้บริโภคพลังงานรายใหญ่ที่สุดของไฟฟ้า" Sutskever กล่าวต่อ
"มันเป็น 2 เปอร์เซ็นต์ทั่วโลก" ฉันเสนอ
Brockman กล่าวว่า “Bitcoin ไม่ชอบ 1 เปอร์เซ็นต์เหรอ?”
Sutskever ในภายหลังจะกล่าวว่า “ฉันคิดว่ามันค่อนข้างเป็นไปได้ที่จะใช้เวลาไม่นานนักสำหรับพื้นผิวโลกทั้งหมดที่จะถูกปกคลุมไปด้วยศูนย์ข้อมูลและสถานีไฟฟ้า" จะมี "สึนามิของการประมวลผล . . เกือบเหมือนปรากฏการณ์ทางธรรมชาติ"
ฉันท้าทายพวกเขาว่า OpenAI กำลังเดิมพันว่ามันจะประสบความสำเร็จในการบรรลุ AGI ที่เป็นประโยชน์เพื่อตอบโต้ภาวะโลกร้อนก่อนที่การทำเช่นนั้นอาจทำให้มันรุนแรงขึ้น
Brockman รีบพูดว่า “วิธีที่เราคิดเกี่ยวกับมันคือดังนี้: เรากำลังอยู่บนทางลาดของการพัฒนา AI นี่เป็นสิ่งที่ใหญ่กว่า OpenAI ใช่ไหม? มันคือสนาม และฉันคิดว่าสังคมกำลังได้รับประโยชน์จากมัน"
"วันที่เราประกาศข้อตกลง" เขากล่าว โดยอ้างถึงการลงทุนใหม่ของ Microsoft มูลค่า 1 พันล้านดอลลาร์ "มูลค่าตามราคาตลาดของ Microsoft เพิ่มขึ้น 1 หมื่นล้านดอลลาร์ ผู้คนเชื่อว่ามี ROI เป็นบวกแม้ในเทคโนโลยีระยะสั้น"
ดังนั้น กลยุทธ์ของ OpenAI จึงค่อนข้างง่าย เขาอธิบาย: เพื่อให้ทันกับการพัฒนา
ต่อมาในวันนั้น Brockman กล่าวซ้ำว่าไม่มีใครรู้ว่า AGI จะมีลักษณะเช่นไร โดยเสริมว่างานของพวกเขาคือการผลักดันไปข้างหน้าต่อไป เพื่อค้นหารูปร่างของเทคโนโลยีทีละขั้นตอน
เบื้องหลัง: ความโปร่งใสและการควบคุม
เดิมทีฉันมีกำหนดการรับประทานอาหารกลางวันกับพนักงานในโรงอาหาร แต่ฉันได้รับแจ้งว่าฉันต้องอยู่นอกสำนักงาน Brockman จะเป็นผู้ดูแลของฉัน
รูปแบบนี้ซ้ำแล้วซ้ำเล่าตลอดการมาเยือนของฉัน: การเข้าถึงพื้นที่บางแห่งถูกจำกัด การประชุมที่ฉันไม่สามารถเข้าร่วมได้ และนักวิจัยมองไปที่หัวหน้าฝ่ายสื่อสารเพื่อให้แน่ใจว่าพวกเขาไม่ได้ละเมิดนโยบายการเปิดเผยข้อมูลใดๆ หลังจากการมาเยือน Jack Clark ได้ส่งคำเตือนอย่างรุนแรงถึงพนักงานใน Slack ห้ามไม่ให้พูดคุยกับฉันเกินกว่าการสนทนาที่ได้รับอนุมัติ เจ้าหน้าที่รักษาความปลอดภัยได้รับรูปถ่ายของฉันด้วย เพื่อที่พวกเขาจะได้เฝ้าระวังฉันหากฉันปรากฏตัวโดยไม่ได้รับอนุญาตในสถานที่ พฤติกรรมเหล่านี้ขัดแย้งกับความมุ่งมั่นของ OpenAI ในเรื่องความโปร่งใส ทำให้เกิดคำถามว่าอะไรกำลังถูกซ่อนไว้
ในระหว่างรับประทานอาหารกลางวันและในวันต่อ ๆ มา ฉันถาม Brockman เกี่ยวกับแรงจูงใจของเขาในการร่วมก่อตั้ง OpenAI เขาบอกว่าเขาหมกมุ่นอยู่กับแนวคิดในการจำลองสติปัญญาของมนุษย์หลังจากอ่านบทความจาก Alan Turing มันเป็นแรงบันดาลใจให้เขา เขาเขียนโค้ดเกม Turing test และโพสต์ออนไลน์ ได้รับการเข้าชมประมาณ 1,500 ครั้ง มันทำให้เขารู้สึกดีมาก "ฉันเพิ่งตระหนักว่านี่คือสิ่งประเภทที่ฉันต้องการทำตาม" เขากล่าว
เขาเข้าร่วม OpenAI ในฐานะผู้ร่วมก่อตั้งในปี 2015 โดยสังเกตว่าเขาจะทำทุกวิถีทางเพื่อให้ AGI เป็นผลสำเร็จ แม้ว่ามันจะหมายถึงการเป็นภารโรงก็ตาม เมื่อเขาแต่งงานสี่ปีต่อมา เขาจัดพิธีทางแพ่งที่สำนักงานของ OpenAI ต่อหน้ากำแพงดอกไม้ที่ทำขึ้นเองซึ่งประดับด้วยรูปทรงของโลโก้หกเหลี่ยมของห้องปฏิบัติการ Sutskever เป็นผู้ประกอบพิธี
"โดยพื้นฐานแล้ว ฉันต้องการทำงานเกี่ยวกับ AGI ตลอดชีวิตที่เหลือของฉัน" Brockman บอกฉัน
ฉันถามเกี่ยวกับสิ่งที่กระตุ้นเขา
Brockman กล่าวถึงโอกาสในการทำงานเกี่ยวกับเทคโนโลยีที่เปลี่ยนแปลงในช่วงชีวิตของเขา เขาเชื่อว่าเขาอยู่ในตำแหน่งที่ไม่เหมือนใครในการนำการเปลี่ยนแปลงนั้นมาสู่ความเป็นจริง "สิ่งที่ดึงดูดฉันจริงๆ คือปัญหาที่จะไม่คลี่คลายในลักษณะเดียวกันหากฉันไม่ได้เข้าร่วม" เขากล่าว
เขาต้องการเป็นผู้นำ AGI และปรารถนาที่จะได้รับการยอมรับในความสำเร็จของเขา ในปี 2022 เขากลายเป็นประธานของ OpenAI
กำไร ภารกิจ และการแข่งขัน
ในระหว่างการสนทนาของเรา Brockman ยืนยันว่าการเปลี่ยนแปลงโครงสร้างของ OpenAI ไม่ได้เปลี่ยนแปลงภารกิจหลัก โครงสร้าง capped-profit และนักลงทุนใหม่ได้ปรับปรุงมัน "เราจัดการเพื่อให้นักลงทุนที่สอดคล้องกับภารกิจเหล่านี้ซึ่งเต็มใจที่จะให้ความสำคัญกับภารกิจเหนือผลตอบแทน นั่นเป็นเรื่องที่บ้าคลั่ง" เขากล่าว
OpenAI มีทรัพยากรที่จะปรับขนาดโมเดลและนำหน้าคู่แข่ง การทำเช่นนั้นล้มเหลวอาจบ่อนทำลายภารกิจ มันเป็นสมมติฐานนี้ที่กระตุ้นการกระทำทั้งหมดของ OpenAI และผลที่ตามมาในวงกว้าง มันกำหนดนาฬิกานับถอยหลังในการพัฒนาการวิจัยแต่ละครั้งของ OpenAI โดยอิงตามระยะเวลาของการไตร่ตรองอย่างรอบคอบ แต่เป็นไปตามจังหวะที่โหดเหี้ยมที่จำเป็นในการข้ามเส้นชัยก่อนคนอื่น ๆ มันพิสูจน์ให้เห็นถึงการบริโภคทรัพยากรจำนวนมหาศาลของ OpenAI
Brockman เน้นย้ำถึงความสำคัญของการแจกจ่ายผลประโยชน์ของ AGI
ฉันถามเกี่ยวกับตัวอย่างในอดีตของเทคโนโลยีแจกจ่ายผลประโยชน์ให้กับประชาชนได้สำเร็จ
"ฉันคิดว่า—ที่จริงแล้วมันน่าสนใจที่จะดูแม้แต่อินเทอร์เน็ตเป็นตัวอย่าง" เขากล่าว "ก็มีปัญหาด้วยเช่นกัน ใช่ไหม" เขากล่าวเป็นข้อแม้ "เมื่อใดก็ตามที่คุณมีสิ่งที่มีการเปลี่ยนแปลงอย่างมาก มันจะไม่ใช่เรื่องง่ายที่จะคิดหาวิธีเพิ่มผลบวกให้สูงสุด ลดผลลบ"
"ไฟเป็นอีกตัวอย่างหนึ่ง" เขากล่าวเสริม "มันก็มีข้อเสียอยู่บ้าง เราต้องหาวิธีควบคุมมันและมีมาตรฐานร่วมกัน"
"รถยนต์เป็นตัวอย่างที่ดี" เขาตามมา "ผู้คนจำนวนมากมีรถยนต์ เป็นประโยชน์ต่อผู้คนจำนวนมาก พวกเขามีข้อเสียอยู่บ้างเช่นกัน พวกเขามีปัจจัยภายนอกบางอย่างที่ไม่จำเป็นต้องดีสำหรับโลก" เขาพูดจบด้วยความลังเล
"ฉันเดาว่าฉันแค่มองว่า—สิ่งที่เราต้องการสำหรับ AGI นั้นไม่แตกต่างจากด้านบวกของอินเทอร์เน็ต ด้านบวกของรถยนต์ ด้านบวกของไฟ การนำไปใช้งานนั้นแตกต่างกันมาก แม้ว่ามันจะเป็นเทคโนโลยีประเภทที่แตกต่างกันมาก"
ดวงตาของเขาเป็นประกายด้วยความคิดใหม่ "ลองดูที่สาธารณูปโภค บริษัทไฟฟ้า บริษัทพลังงานเป็นหน่วยงานรวมศูนย์มากที่ให้บริการสิ่งที่มีต้นทุนต่ำ คุณภาพสูง ที่ปรับปรุงชีวิตของผู้คนอย่างมีความหมาย"
Brockman ดูเหมือนจะไม่ชัดเจนอีกครั้งเกี่ยวกับวิธีที่ OpenAI จะเปลี่ยนตัวเองให้กลายเป็นสาธารณูปโภค
เขากลับไปยังสิ่งหนึ่งที่เขารู้แน่นอน OpenAI มุ่งมั่นที่จะแจกจ่ายผลประโยชน์ของ AGI และให้เสรีภาพทางเศรษฐกิจแก่ทุกคน "เราหมายถึงอย่างนั้นจริงๆ" เขากล่าว
"วิธีที่เราคิดเกี่ยวกับมันคือ: เทคโนโลยีจนถึงตอนนี้เป็นสิ่งที่ยกระดับเรือทั้งหมด แต่มีผลกระทบที่แท้จริงนี้" เขากล่าว "AGI อาจรุนแรงมากขึ้น จะเป็นอย่างไรถ้าค่าทั้งหมดถูกล็อคไว้ในที่เดียว? นั่นคือเส้นทางที่เรากำลังมุ่งหน้าไปในฐานะสังคม และเราไม่เคยเห็นความรุนแรงขนาดนั้นมาก่อน ฉันไม่คิดว่ามันเป็นโลกที่ดี นั่นไม่ใช่โลกที่ฉันต้องการช่วยสร้าง"
ผลกระทบและปฏิกิริยา
ในเดือนกุมภาพันธ์ 2020 ฉันได้ตีพิมพ์โปรไฟล์ของฉันสำหรับ MIT Technology Review ซึ่งเผยให้เห็นถึงความไม่สอดคล้องกันระหว่างภาพลักษณ์สาธารณะของ OpenAI และการปฏิบัติภายในของมัน ฉันกล่าวว่า "เมื่อเวลาผ่านไป มันได้อนุญาตให้มีความสามารถในการแข่งขันที่ดุเดือดและแรงกดดันที่เพิ่มขึ้นสำหรับการระดมทุนที่มากขึ้นเรื่อย ๆ เพื่อบ่อนทำลายอุดมคติของการก่อตั้งในเรื่องความโปร่งใส การเปิดกว้าง และความร่วมมือ"
Elon Musk ตอบด้วยทวีตสามครั้ง:
"OpenAI ควรเปิดกว้างมากขึ้น imo"
"ฉันไม่มีการควบคุมและมีความเข้าใจที่จำกัดมากเกี่ยวกับ OpenAI ความมั่นใจใน Dario ในเรื่องความปลอดภัยไม่สูง" เขากล่าว โดยอ้างถึง Dario Amodei ผู้อำนวยการฝ่ายวิจัย
"องค์กรทั้งหมดที่พัฒนา AI ขั้นสูงควรได้รับการควบคุม รวมถึง Tesla"
Altman ส่งอีเมลถึงพนักงานของ OpenAI
"ในขณะที่ไม่ใช่หายนะอย่างแน่นอน มันก็แย่มาก" เขาเขียนเกี่ยวกับบทความ MIT Technology Review
เขาเขียนว่ามันเป็น "การวิพากษ์วิจารณ์ที่เป็นธรรม" ว่าบทความได้ระบุถึงการขาดการเชื่อมต่อระหว่างการรับรู้ของ OpenAI และความเป็นจริง เขาจะแนะนำให้ Amodei และ Musk พบกันเพื่อแก้ไขคำวิพากษ์วิจารณ์ของ Musk เพื่อหลีกเลี่ยงข้อสงสัยใด ๆ งานของ Amodei และความปลอดภัยของ AI เป็นสิ่งสำคัญต่อภารกิจ เขาเขียน "ฉันคิดว่าเราควรหาทางปกป้องทีมของเราต่อสาธารณชนในอนาคต (แต่จะไม่ให้สื่อมวลชนต่อสู้ในที่สาธารณะที่พวกเขาชื่นชอบในตอนนี้)"
หลังจากบทความ OpenAI จะไม่พูดคุยกับฉันอีกเลยเป็นเวลาสามปี