จากชัยปุระถึง DeepSeek: การเรียกร้องโอเพนซอร์ส

เทศกาลวรรณกรรมกับการเปิดตัว AI

ไม่กี่สัปดาห์ที่ผ่านมา เทศกาลวรรณกรรมชัยปุระ (JLF) ที่มีชีวิตชีวาในอินเดียกลายเป็นเวทีที่ไม่คาดคิดสำหรับการอภิปรายที่สำคัญเกี่ยวกับอนาคตของปัญญาประดิษฐ์ ในระหว่างการเสวนาที่มุ่งเน้นไปที่มรดกของจักรวรรดิ การสนทนากลับหันเหไปอย่างรวดเร็ว ผู้ชมที่หลงใหลในหนังสือ ‘From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia’ ของ Pankaj Mishra ได้ตั้งคำถามที่แหลมคมหลายชุด ไม่ใช่เกี่ยวกับวรรณกรรม แต่เกี่ยวกับ DeepSeek ซึ่งเป็นแบบจำลอง AI เชิงสร้างสรรค์ (Generative AI) ใหม่จากประเทศจีน

คำถามเหล่านี้ – เรามาถึงจุดนี้ได้อย่างไร? เราจะสร้างเส้นทางที่ดีที่สุดสำหรับอนาคตของ AI ได้อย่างไร? เหตุใดโอเพนซอร์สจึงเป็นกุญแจสำคัญในการพัฒนา AI? – สะท้อนไปไกลกว่าบริเวณงานเทศกาล พวกเขาได้สัมผัสกับการแข่งขันทางประวัติศาสตร์ที่หยั่งรากลึก ความปรารถนาในการพึ่งพาตนเอง และการเคลื่อนไหวระดับโลกที่เพิ่มมากขึ้นซึ่งสนับสนุนแนวทางการพัฒนา AI ที่เปิดกว้างและร่วมมือกันมากขึ้น

รากฐานทางประวัติศาสตร์ของการตอบรับ DeepSeek

การเกิดขึ้นของ DeepSeek ในเทศกาลวรรณกรรมอาจดูแปลก อย่างไรก็ตาม ความโดดเด่นของมันเชื่อมโยงอย่างลึกซึ้งกับเหตุการณ์ทางประวัติศาสตร์และการแข่งขันที่ยาวนาน โดยเฉพาะอย่างยิ่งระหว่างเอเชียและตะวันตก ในขณะที่ห้องปฏิบัติการ AI ของยุโรปได้รับการยกย่องสำหรับความก้าวหน้าด้านโอเพนซอร์ส การตอบรับ DeepSeek ในเอเชียมีความหมายทางประวัติศาสตร์ที่ลึกซึ้งกว่ามาก

การเปิดตัว DeepSeek ได้รับการรายงานข่าวอย่างเข้มข้นจากสื่อ การตอบรับที่ JLF เผยให้เห็นความรู้สึกที่อยู่เหนือกว่าการอภิปรายเกี่ยวกับประสิทธิภาพของ AI นักเขียนและนักข่าวชาวอินเดีย ซึ่งมักวิพากษ์วิจารณ์จีน พบว่าตนเองรวมกันเป็นหนึ่งเดียวด้วยการต่อสู้ร่วมกันกับอำนาจของ American AI Corporations (AICs) ความกระตือรือร้นต่อ DeepSeek ทั่วเอเชียนี้มีรากฐานมาจากประวัติศาสตร์อาณานิคม และเมื่อเร็ว ๆ นี้ ในการประกาศขององค์กรที่ยั่วยุ

AI: การต่อสู้เพื่อการพึ่งพาตนเองในยุคปัจจุบัน

สำหรับ Stephen Platt ผู้เขียน ‘Imperial Twilight: The Opium War and The End of China’s Last Golden Age’ ความทะเยอทะยานทางเทคโนโลยีของจีนแยกไม่ออกจากรอยแผลเป็นทางประวัติศาสตร์ สงครามฝิ่น (1839–1860) เป็นสัญลักษณ์ที่ทรงพลังว่าความเหนือกว่าทางเทคโนโลยีและการทหารของอังกฤษทำให้จีนอับอายได้อย่างไร ‘ศตวรรษแห่งความอัปยศ’ นี้เป็นเชื้อเพลิงให้กับแรงผลักดันในปัจจุบันของจีนในการพึ่งพาตนเอง การลงทุนเชิงรุกใน AI เซมิคอนดักเตอร์ และเทคโนโลยีที่สำคัญอื่น ๆ เป็นความมุ่งมั่นที่จะหลีกเลี่ยงการพึ่งพาเทคโนโลยีตะวันตก ซึ่งเป็นบทเรียนที่จารึกไว้ในจิตสำนึกของชาติ

ผู้ร่วมอภิปรายชาวอินเดียที่ JLF พบจุดร่วมในเรื่องเล่านี้ เช่นเดียวกับจีน อินเดียมีรอยด่างดำจากอิทธิพลของบริษัท East India Company นอกจากนี้ Anita Anand นักข่าวชาวอังกฤษยังเน้นย้ำถึงวิดีโอที่เป็นที่ถกเถียงของ Sam Altman ซีอีโอของ OpenAI ที่ปฏิเสธศักยภาพของอินเดียในการแข่งขันกับ AICs ในการฝึกอบรมแบบจำลองพื้นฐาน โดยระบุว่าเป็น ‘ความสิ้นหวังโดยสิ้นเชิง’ คำพูดดังกล่าวมีแต่จะเสริมสร้างความมุ่งมั่นในการพึ่งพาตนเองในภูมิภาค

โอเพนซอร์ส AI: สัญลักษณ์แห่งการต่อต้าน

DeepSeek และห้องปฏิบัติการในยุโรปที่มาก่อนหน้านี้ ได้เสนอสัญญาณแห่งความหวังในการแข่งขัน AI ทางเลือกที่จะเปิดรับโอเพนซอร์สได้กลายเป็นสัญลักษณ์ที่ทรงพลังของการต่อต้านอำนาจของแบบจำลอง AI ที่เป็นกรรมสิทธิ์

การเปิดตัว DeepSeek R1 จะต้องเข้าใจในบริบทของการแข่งขันที่หยั่งรากลึก โดยเฉพาะอย่างยิ่งกับสหรัฐอเมริกา การแข่งขันนี้ลึกซึ้งมากจนยุโรปมักถูกมองข้ามในการอภิปรายเกี่ยวกับการแข่งขันกับเทคโนโลยีของสหรัฐฯ

อำนาจของ AICs ได้จุดประกายให้เกิดการเปรียบเทียบกับลัทธิล่าอาณานิคมในตะวันตก ในบทความแสดงความคิดเห็นในเดือนสิงหาคม 2024 เรื่อง ‘The Rise of Techno-Colonialism’ Hermann Hauser สมาชิกของ European Innovation Council และ Hazem Danny Nakib นักวิจัยอาวุโสที่ University College London (UCL) เขียนว่า: ‘แตกต่างจากลัทธิล่าอาณานิคมในสมัยก่อน เทคโนโคโลเนียลลิซึมไม่ได้เกี่ยวกับการยึดครองดินแดน แต่เกี่ยวกับการควบคุมเทคโนโลยีที่เป็นรากฐานของเศรษฐกิจโลกและชีวิตประจำวันของเรา เพื่อให้บรรลุเป้าหมายนี้ สหรัฐฯ และจีนกำลังเพิ่มการผลิตชิ้นส่วนที่ซับซ้อนและเป็นนวัตกรรมมากที่สุดของห่วงโซ่อุปทานทั่วโลกมากขึ้นเรื่อยๆ ซึ่งเป็นการสร้างจุดยุทธศาสตร์ที่สำคัญ’

แนวทางโอเพนซอร์สที่เป็นผู้บุกเบิกของห้องปฏิบัติการ AI ในยุโรป เช่น Mistral, kyutai และทีม FAIR Paris ของ Meta และตอนนี้ DeepSeek ได้นำเสนอทางเลือกที่น่าสนใจสำหรับกลยุทธ์แบบจำลอง AI ที่เป็นกรรมสิทธิ์ของ AICs การมีส่วนร่วมแบบโอเพนซอร์สเหล่านี้กำลังสะท้อนไปทั่วโลกและได้เสริมสร้างการเปิดรับโอเพนซอร์ส AI ให้เป็นสัญลักษณ์ของการต่อต้านอำนาจ AI ของอเมริกา

กรณีศึกษาสำหรับโอเพนซอร์ส: ประวัติศาสตร์ซ้ำรอย

การทำงานร่วมกันทางเทคโนโลยีเติบโตได้ด้วยพลังงานและความรวดเร็ว ซึ่งเป็นสิ่งที่มีอยู่ในวิวัฒนาการของรหัสซอฟต์แวร์

Jean Tirole นักเศรษฐศาสตร์รางวัลโนเบลชาวฝรั่งเศส ซึ่งในตอนแรกงุนงงกับการเกิดขึ้นของโอเพนซอร์ส ได้ตั้งคำถามในบทความปี 2000 ของเขากับ Josh Lerner เรื่อง ‘The Simple Economics of Open Source’ ว่า: ‘เหตุใดโปรแกรมเมอร์ชั้นนำหลายพันคนจึงควรมีส่วนร่วมอย่างอิสระในการจัดหาสินค้าสาธารณะ? คำอธิบายใด ๆ ที่ขึ้นอยู่กับการเห็นแก่ผู้อื่นนั้นมีขอบเขตจำกัด’

แม้ว่าจะเข้าใจได้ในเวลานั้น แต่ใครก็ตามที่ติดตามความคืบหน้าของ AI ในช่วงไม่กี่ปีที่ผ่านมา โดยเฉพาะอย่างยิ่งหลังจากการเปิดตัว DeepSeek R1 จะพบว่าคำตอบนั้นชัดเจนในตัวเอง ผลกระทบของ FAIR Paris ที่ Meta เปิดโอเพนซอร์ส Llama, การเพิ่มขึ้นอย่างรวดเร็วของ Mistral และผู้ก่อตั้งผ่านการเปิดโอเพนซอร์สแบบจำลองการเรียนรู้ภาษา (LLM) ขนาด 7B และ DeepSeek R1 แสดงให้เห็นถึงเหตุผลที่น่าสนใจเบื้องหลังความทุ่มเทของโปรแกรมเมอร์และนักวิทยาศาสตร์เหล่านี้ต่อโอเพนซอร์ส

นอกจากนี้ยังชี้แจงว่าเหตุใด Sam Altman และผู้ร่วมก่อตั้งของเขาจึงเลือกชื่อ ‘OpenAI’ เพื่อดึงดูดผู้มีความสามารถ จะมีห้องปฏิบัติการชั้นนำเหล่านี้แห่งใดที่ประสบความสำเร็จในการประชาสัมพันธ์และสร้างแบรนด์ส่วนตัวที่แข็งแกร่งภายในชุมชน AI หรือไม่ หากพวกเขาเลือกแนวทางที่เป็นกรรมสิทธิ์? คำตอบคือไม่

คำพูดที่ทรงพลังสองคำจากปี 1999 โดย Richard Stallman โปรแกรมเมอร์ และ Eric Raymond นักพัฒนา ตามลำดับ ซึ่งรวมอยู่ในตอนต้นของบทความ ได้ให้ความกระจ่างเกี่ยวกับการตอบรับ DeepSeek ที่ JLF และเน้นย้ำถึงแรงผลักดันทางอุดมการณ์ที่ลึกซึ้งกว่า:

  • ‘แนวคิดที่ว่าระบบสังคมซอฟต์แวร์ที่เป็นกรรมสิทธิ์—ระบบที่บอกว่าคุณไม่ได้รับอนุญาตให้แบ่งปันหรือเปลี่ยนแปลงซอฟต์แวร์—เป็นเรื่องที่ไม่เข้าสังคม ไม่ถูกต้องตามหลักจริยธรรม เป็นเรื่องผิด อาจทำให้บางคนประหลาดใจ แต่เราจะพูดอะไรได้อีกเกี่ยวกับระบบที่ขึ้นอยู่กับการแบ่งแยกประชาชนและทำให้ผู้ใช้หมดหนทาง?’ - Richard Stallman

  • ‘ฟังก์ชันยูทิลิตี้ที่แฮกเกอร์ Linux กำลังเพิ่มประสิทธิภาพสูงสุดนั้นไม่ใช่เศรษฐศาสตร์แบบคลาสสิก แต่เป็นความพึงพอใจในอัตตาของตนเองและชื่อเสียงในหมู่แฮกเกอร์คนอื่นๆ … วัฒนธรรมอาสาสมัครที่ทำงานในลักษณะนี้ไม่ได้ผิดปกติ อันที่จริงแล้ว อีกวัฒนธรรมหนึ่งที่ฉันมีส่วนร่วมมานานคือแฟนคลับนิยายวิทยาศาสตร์ ซึ่งแตกต่างจากแฮกเกอร์โดมที่ยอมรับ egoboo อย่างชัดเจน (การเพิ่มพูนชื่อเสียงของตนเองในหมู่แฟนๆ คนอื่นๆ)’ - Eric Raymond

วิถีของ Unix ในช่วงทศวรรษ 1970 และ 1980 เป็นการเปรียบเทียบที่น่าสนใจสำหรับสถานะปัจจุบันของ AI การส่งเสริมและการแจกจ่าย Unix ฟรีของ AT&T ในแวดวงวิชาการในตอนแรกได้ส่งเสริมนวัตกรรมและการนำไปใช้ อย่างไรก็ตาม เมื่อ AT&T กำหนดใบอนุญาตที่เป็นกรรมสิทธิ์ในช่วงปลายทศวรรษ 1970 ก็หลีกเลี่ยงไม่ได้ที่ Berkeley University จะเปิดตัว BSD Unix ซึ่งเป็นทางเลือกแบบเปิด และในที่สุด Linus Torvalds ก็สร้าง Linux การพัฒนา Linux ของ Torvalds ในยุโรปได้เปลี่ยนศูนย์กลางของซอฟต์แวร์โอเพนซอร์สออกจากสหรัฐอเมริกา

ความคล้ายคลึงกันนั้นโดดเด่น แม้กระทั่งในทางภูมิศาสตร์ กับวิวัฒนาการของ AI อย่างไรก็ตาม คราวนี้ ภูมิศาสตร์ใหม่ได้เกิดขึ้น: TII ของอาบูดาบีกับ Falcon Models, DeepSeek ของจีน, Qwen ของ Alibaba และล่าสุด Krutrim AI Lab ของอินเดียกับแบบจำลองโอเพนซอร์สสำหรับภาษา Indic

ทีม Meta FAIR Paris พร้อมด้วยห้องปฏิบัติการ AI ชั้นนำของยุโรปและห้องปฏิบัติการชั้นนำใหม่ (DeepSeek, Falcon, Qwen, Krutrim) ได้เร่งนวัตกรรม AI อย่างมีนัยสำคัญ ด้วยการแบ่งปันเอกสารการวิจัยและรหัสอย่างเปิดเผย พวกเขาได้:

  • ฝึกอบรมวิศวกรและนักวิจัย AI รุ่นใหม่ในเทคนิค AI ที่ล้ำสมัย
  • สร้างระบบนิเวศของการทำงานร่วมกันแบบเปิด ทำให้เกิดความก้าวหน้าอย่างรวดเร็วนอกห้องปฏิบัติการ AI ที่เป็นกรรมสิทธิ์
  • จัดหาแบบจำลอง AI ทางเลือก เพื่อให้แน่ใจว่า AI จะไม่ถูกผูกขาดโดย American AI Corporations

ระบบนิเวศทั้งสี่นี้ (ยุโรป อินเดีย อาบูดาบี และจีน) สามารถสร้างพันธมิตร AI โอเพนซอร์สที่ทรงพลังเพื่อท้าทาย AICs ที่โดดเด่นซึ่งยังคงดำเนินการภายใต้กรอบความคิด AI ที่เป็นกรรมสิทธิ์

ในแบบสอบถาม Ask Me Anything (AMA) เมื่อวันที่ 31 มกราคม 2025 หลังจากการเปิดตัว DeepSeek R1, Altman ยอมรับว่าแนวทางแบบจำลอง AI ที่เป็นกรรมสิทธิ์นั้นอยู่ผิดด้านของประวัติศาสตร์

ในเวลาต่อมา ห้องปฏิบัติการ AI ทั่วโลกอาจเลือกที่จะเข้าร่วมพันธมิตรนี้เพื่อพัฒนาสาขานี้ร่วมกัน นี่จะไม่ใช่ครั้งแรกที่สาขาวิทยาศาสตร์ก้าวข้ามขอบเขตและอุดมการณ์ทางการเมืองผ่านโครงการที่ไม่แสวงหาผลกำไร มันเสนอรูปแบบการแข่งขันที่หลีกเลี่ยงการกระตุ้นความคับข้องใจต่อต้านอาณานิคมที่มักแสดงออกโดย Global South

แบบอย่างทางประวัติศาสตร์: โครงการจีโนมมนุษย์เป็นแบบจำลองสำหรับ AI

ในฐานะนักชีววิทยา ฉันตระหนักเป็นพิเศษถึงความสำเร็จของโครงการจีโนมมนุษย์ (HGP) และวิธีที่มันเหนือกว่าโครงการริเริ่มที่แสวงหาผลกำไรของ Celera Genomics ในที่สุด ซึ่งเป็นประโยชน์ต่อสาขาและมนุษยชาติโดยรวม

HGP เป็นโครงการริเริ่มการวิจัยระหว่างประเทศที่ก้าวล้ำซึ่งทำแผนที่และจัดลำดับจีโนมมนุษย์ทั้งหมด เสร็จสมบูรณ์ในปี 2003 หลังจาก 13 ปีของการทำงานร่วมกัน ได้สร้างผลกระทบทางเศรษฐกิจเกือบ 8 แสนล้านดอลลาร์จากการลงทุน 3 พันล้านดอลลาร์ ตามรายงานปี 2011 ที่อัปเดตในปี 2013 (ผลตอบแทนจากการลงทุนต่อเศรษฐกิจสหรัฐฯ ที่ 141 ต่อหนึ่ง – ทุกๆ 1 ดอลลาร์ของการลงทุน HGP ของรัฐบาลกลางมีส่วนทำให้เกิด 141 ดอลลาร์ในเศรษฐกิจ) ได้ปฏิวัติการแพทย์ เทคโนโลยีชีวภาพ และพันธุศาสตร์ ทำให้เกิดความก้าวหน้าในการแพทย์เฉพาะบุคคล การป้องกันโรค และการวิจัยจีโนม งานจัดลำดับและการวิจัยดำเนินการโดยห้องปฏิบัติการ 20 แห่งในหกประเทศ: สหรัฐอเมริกา สหราชอาณาจักร ฝรั่งเศส เยอรมนี ญี่ปุ่น และจีน

ในขณะที่ Celera Genomics พยายามจัดลำดับจีโนมเพื่อผลกำไร HGP ให้ความสำคัญกับการแบ่งปันข้อมูลแบบเปิด ซึ่งประดิษฐานอยู่ในหลักการเบอร์มิวดา หลักการเหล่านี้ก่อตั้งขึ้นในระหว่างการประชุม International Strategy Meeting on Human Genome Sequencing ในเบอร์มิวดาในเดือนกุมภาพันธ์ 1996 มีความสำคัญในการกำหนดนโยบายการแบ่งปันข้อมูลสำหรับ HGP และมีผลกระทบยาวนานต่อแนวทางปฏิบัติในการวิจัยจีโนมทั่วโลก หลักการสำคัญคือ:

  1. การเปิดเผยข้อมูลทันที: ข้อมูลลำดับจีโนมมนุษย์ทั้งหมดที่สร้างโดย HGP จะต้องเผยแพร่ในฐานข้อมูลสาธารณะ โดยควรภายใน 24 ชั่วโมงหลังจากการสร้าง การเผยแพร่อย่างรวดเร็วนี้มีจุดมุ่งหมายเพื่อเร่งการค้นพบทางวิทยาศาสตร์และเพิ่มประโยชน์ต่อสังคมให้สูงสุด
  2. การเข้าถึงฟรีและไม่จำกัด: ข้อมูลจะต้องเปิดให้ชุมชนวิทยาศาสตร์ทั่วโลกและสาธารณชนเข้าถึงได้อย่างอิสระ โดยไม่มีข้อจำกัดในการใช้เพื่อการวิจัยหรือการพัฒนา
  3. การป้องกันการเรียกร้องสิทธิ์ในทรัพย์สินทางปัญญา: ผู้เข้าร่วมตกลงว่าจะไม่มีการเรียกร้องสิทธิ์ในทรัพย์สินทางปัญญาในข้อมูลลำดับจีโนมหลัก ส่งเสริมจริยธรรมทางวิทยาศาสตร์แบบเปิดและป้องกันอุปสรรคที่อาจเกิดขึ้นกับการวิจัยเนื่องจากการจดสิทธิบัตร

ในแง่ของการกำกับดูแล HGP เป็นโครงการริเริ่มทางวิทยาศาสตร์ที่ร่วมมือกันและประสานงานกัน ไม่ใช่องค์กรหรือบริษัทแบบสแตนด์อโลน เป็นความพยายามแบบกระจายอำนาจที่ได้รับทุนสนับสนุนจากทุนและสัญญาของรัฐบาลไปยังสถาบันวิจัยต่างๆ ส่วนหนึ่งของงบประมาณ (3–5%) ได้รับการจัดสรรเพื่อศึกษาและจัดการกับข้อกังวลด้านจริยธรรม กฎหมาย และสังคมที่เกี่ยวข้องกับการจัดลำดับจีโนมมนุษย์

การเชื่อมโยงความปลอดภัยของ AI และโอเพนซอร์ส AI

ข้อได้เปรียบที่สำคัญอีกประการหนึ่งของโอเพนซอร์ส AI คือบทบาทในการวิจัยความปลอดภัยของ AI

การประชุมสุดยอด AI Seoul Summit ในปี 2024 มุ่งเน้นไปที่ความเสี่ยงต่อการดำรงอยู่โดยเฉพาะ ในช่วงเวลาที่ AICs มีความได้เปรียบอย่างมากเหนือส่วนอื่นๆ ของโลก เมื่อเร็วๆ นี้ในเดือนพฤษภาคม 2024 Eric Schmidt อดีตซีอีโอของ Google อ้างว่าสหรัฐฯ นำหน้าจีน 2–3 ปีในด้าน AI ในขณะที่ยุโรปหมกมุ่นอยู่กับการควบคุมมากเกินไปที่จะมีความเกี่ยวข้อง หากการประชุมสุดยอดประสบความสำเร็จ ก็จะมอบการควบคุมการตัดสินใจด้านความปลอดภัยของ AI ให้กับบริษัทเหล่านี้ได้อย่างมีประสิทธิภาพ โชคดีที่มันไม่ได้เป็นเช่นนั้น

ตอนนี้โอเพนซอร์ส AI กำลังเชื่อมช่องว่างทางเทคโนโลยี การอภิปรายด้านความปลอดภัยจะไม่ถูกกำหนดโดยผู้เล่นที่โดดเด่นเพียงไม่กี่รายอีกต่อไป แต่กลุ่มผู้มีส่วนได้ส่วนเสียที่กว้างขึ้นและหลากหลายมากขึ้น – รวมถึงนักวิจัย ผู้กำหนดนโยบาย และห้องปฏิบัติการ AI จากยุโรป อินเดีย จีน และอาบูดาบี – มีโอกาสที่จะกำหนดรูปแบบการอภิปรายควบคู่ไปกับ AICs

นอกจากนี้ โอเพนซอร์ส AI ยังช่วยเพิ่มขีดความสามารถในการป้องปรามทั่วโลก ทำให้มั่นใจได้ว่าจะไม่มีผู้กระทำเพียงรายเดียวที่สามารถผูกขาดหรือใช้ระบบ AI ขั้นสูงในทางที่ผิดโดยไม่มีความรับผิดชอบ แนวทางการกระจายอำนาจเพื่อความปลอดภัยของ AI นี้จะช่วยลดภัยคุกคามที่อาจเกิดขึ้นโดยการกระจายทั้งความสามารถและการกำกับดูแลอย่างเท่าเทียมกันมากขึ้นทั่วทั้งระบบนิเวศ AI ทั่วโลก

โครงการ AI ของมนุษย์กับหลักการปารีส

การประชุมสุดยอด AI Action Summit ในปารีสในสัปดาห์หน้าจะมีบทบาทอย่างไรในการกำหนดอนาคตของ AI?

สิ่งนี้นำเสนอโอกาสที่สำคัญในการจัดตั้งโครงการ AI ของมนุษย์ โดยจำลองตามโครงการจีโนมมนุษย์ เพื่อพัฒนาและสนับสนุนการพัฒนา AI แบบโอเพนซอร์สในระดับโลก การมีส่วนร่วมแบบโอเพนซอร์สในปัจจุบัน จากห้องปฏิบัติการ AI ชั้นนำของยุโรปไปจนถึง DeepSeek กำลังเร่งสาขานี้และช่วยลดช่องว่างกับ AICs

ความสามารถของ AI ได้รับการปรับปรุงอย่างมีนัยสำคัญจากความสมบูรณ์ของระบบนิเวศโอเพนซอร์สทั่วไป ด้วยโครงการที่สมบูรณ์หลายพันโครงการ แบบจำลองการกำกับดูแลเฉพาะ และการบูรณาการอย่างลึกซึ้งในองค์กร สถาบันการศึกษา และรัฐบาล

ระบบนิเวศโอเพนซอร์ส AI ยังได้รับประโยชน์จากแพลตฟอร์มเช่น Github และ Gitlab เมื่อเร็วๆ นี้ แพลตฟอร์มเฉพาะสำหรับโอเพนซอร์ส AI เช่น Hugging Face – บริษัทในสหรัฐฯ ที่ร่วมก่อตั้งโดยผู้ประกอบการชาวฝรั่งเศสสามคน – ได้เริ่มมีบทบาทสำคัญในฐานะแพลตฟอร์มการจัดจำหน่ายสำหรับชุมชน

เมื่อพิจารณาถึงความสมบูรณ์ของระบบนิเวศโอเพนซอร์ส AI เมื่อเทียบกับการจัดลำดับจีโนมมนุษย์ในช่วงต้นทศวรรษ 1990 โอเพนซอร์ส AI จะได้รับประโยชน์จากโครงการ AI ของมนุษย์ได้อย่างไร?

ประการหนึ่ง สหภาพยุโรปมักถูกวิพากษ์วิจารณ์โดย AICs และห้องปฏิบัติการ AI ชั้นนำของตนเองสำหรับการควบคุมโอเพนซอร์ส โครงการ AI ของมนุษย์สามารถอุทิศความพยายามร่วมกันเพื่อพัฒนาการจัดตำแหน่งกฎระเบียบและมาตรฐานในประเทศและภูมิภาคที่เข้าร่วม แนวทางที่ประสานงานกัน โดยมีการสนับสนุนเริ่มต้นจากยุโรป อินเดีย อาบูดาบี และจีน สามารถอำนวยความสะดวกในการเผยแพร่แบบจำลองโอเพนซอร์สทั่วทั้งภูมิภาคกฎระเบียบที่ใช้ร่วมกันนี้ (รูปแบบของเขตการค้าเสรีสำหรับโอเพนซอร์ส)

แม้ว่าจะไม่ได้รับการพิสูจน์อย่างแน่ชัด แต่ก็มีความคล้ายคลึงกับพลวัตที่ขับเคลื่อนด้วยการแข่งขันซึ่งกำหนดรูปแบบปฏิกิริยาต่อ DeepSeek ที่ JLF ในทำนองเดียวกัน การควบคุม AI สามารถสร้างขึ้นโดยมุ่งเน้นที่การส่งเสริมนวัตกรรมและเพิ่มประโยชน์สูงสุดต่อสาธารณะ – ทั้งสำหรับองค์กรและผู้บริโภค – แทนที่จะทำหน้าที่เป็นกลไกที่อาจขัดขวางความคืบหน้าของ AICs หรือขัดขวางแชมป์ AI ที่เติบโตในท้องถิ่นที่พยายามลดช่องว่าง

โครงการยังสามารถอำนวยความสะดวกในการแลกเปลี่ยนผู้มีความสามารถและให้ทุนสนับสนุนโครงสร้างพื้นฐานการประมวลผลร่วมกัน (เชื่อมโยงกับโครงสร้างพื้นฐานด้านพลังงาน) สำหรับโอเพนซอร์ส AI เห็นได้ชัดจากแผนภูมิด้านล่างว่าผู้สำเร็จการศึกษา STEM ที่มีความสามารถในบางส่วนของโลกอาจประสบปัญหาในการเข้าถึงโครงสร้างพื้นฐาน AI ระดับโลกที่ประเทศของตนขาด

อีกด้านหนึ่งของความร่วมมือคือการสร้างแนวทางปฏิบัติที่ดีที่สุดเกี่ยวกับมาตรฐานการเข้าถึงแบบเปิดสำหรับแบบจำลองและชุดข้อมูล ซึ่งครอบคลุมถึงน้ำหนัก รหัส และเอกสารประกอบ

โครงการยังสามารถส่งเสริมความร่วมมือระดับโลกในการวิจัยความปลอดภัยของ AI แทนที่จะแข่งกันอย่างลับๆ เพื่อแก้ไขปัญหาการจัดตำแหน่ง นักวิจัยจากปารีสถึงปักกิ่งถึงบังกาลอร์สามารถทำงานร่วมกันในการประเมินแบบจำลองและลดความเสี่ยงได้ การค้นพบด้านความปลอดภัยทั้งหมด (เช่น วิธีการลดผลลัพธ์ที่เป็นอันตรายหรือเครื่องมือสำหรับการตีความ) สามารถแบ่งปันได้ทันทีในโดเมนเปิด

หลักการนี้จะตระหนักว่าความปลอดภัยของ AI เป็นสินค้าสาธารณะทั่วโลก – ความก้าวหน้าในห้องปฏิบัติการแห่งหนึ่ง (เช่น อัลกอริทึมใหม่เพื่อให้การให้เหตุผลของ AI โปร่งใส) ควรเป็นประโยชน์ต่อทุกคน ไม่ควรเก็บไว้เป็นกรรมสิทธิ์ สามารถจัดกิจกรรมเกณฑ์มาตรฐานด้านความปลอดภัยร่วมกันและการท้าทายเพื่อส่งเสริมวัฒนธรรมความรับผิดชอบร่วมกัน ด้วยการรวบรวมการวิจัยด้านความปลอดภัย โครงการนี้มีจุดมุ่งหมายเพื่อก้าวนำหน้าการใช้ AI ในทางที่ผิดหรืออุบัติเหตุที่อาจเกิดขึ้น ทำให้ประชาชนมั่นใจได้ว่าระบบ AI ที่ทรงพลังได้รับการดูแลด้วยความระมัดระวัง

การมุ่งเน้นไปที่ความเสี่ยงต่อการดำรงอยู่ที่การประชุมสุดยอด AI Safety Summit ปี 2023 ที่ Bletchley Park โดยเน้นย้ำถึงการเปรียบเทียบการแพร่ขยายอาวุธนิวเคลียร์มากเกินไป ทำให้พลาดโอกาสในการตรวจสอบด้านอื่นๆ ที่ความปลอดภัยถือเป็นสินค้าสาธารณะ: ความปลอดภัยทางไซเบอร์ ยาปฏิชีวนะและภูมิคุ้มกันวิทยา (ด้วยโครงการริเริ่มที่น่าสนใจหลายอย่างหลังโควิด-19) และความปลอดภัยในการบิน

โครงการยังสามารถเป็นพันธมิตรและส่งเสริมงานที่ดำเนินการโดยมูลนิธิ ARC Prize Foundation ส่วนตัวเพื่อส่งเสริมการพัฒนาระบบ AI ที่ปลอดภัยและขั้นสูง ARC Prize ซึ่งร่วมก่อตั้งโดย François Chollet ผู้สร้างไลบรารีโอเพนซอร์ส Keras และ Mike Knoop ผู้ร่วมก่อตั้งบริษัทซอฟต์แวร์ Zapier เป็นองค์กรไม่แสวงหาผลกำไรที่จัดการแข่งขันสาธารณะเพื่อพัฒนาการวิจัยปัญญาประดิษฐ์ทั่วไป (AGI) กิจกรรมเรือธงของพวกเขา การแข่งขัน ARC Prize มอบเงินกว่า 1 ล้านดอลลาร์ให้กับผู้เข้าร่วมที่สามารถพัฒนาและเปิดโอเพนซอร์สโซลูชันสำหรับเกณฑ์มาตรฐาน ARC-AGI ซึ่งเป็นการทดสอบที่ออกแบบมาเพื่อประเมินความสามารถของระบบ AI ในการสรุปและรับทักษะใหม่ๆ ได้อย่างมีประสิทธิภาพ

การเน้นย้ำของมูลนิธิ ARC Prize Foundation เกี่ยวกับโซลูชันโอเพนซอร์สและการแข่งขันสาธารณะสอดคล้องกับเป้าหมายของโครงการ AI ของมนุษย์ในการส่งเสริมความร่วมมือระหว่างประเทศและความโปร่งใสในการพัฒนา AI อย่างราบรื่น ตามที่ระบุไว้ในเว็บไซต์ของมูลนิธิ ARC Prize Foundation ภายใต้ ‘AGI’:

‘LLMs ได้รับการฝึกอบรมเกี่ยวกับข้อมูลจำนวนมหาศาลที่ไม่อาจจินตนาการได้ แต่ยังคงไม่สามารถปรับตัวเข้ากับปัญหาที่เรียบง่ายที่พวกเขาไม่ได้รับการฝึกอบรม หรือสร้างสิ่งประดิษฐ์ใหม่ๆ ไม่ว่าจะพื้นฐานเพียงใด แรงจูงใจทางการตลาดที่แข็งแกร่งได้ผลักดันให้การวิจัย AI แนวหน้ากลายเป็นโอเพนซอร์ส ความสนใจและทรัพยากรในการวิจัยกำลังถูกดึงไปสู่ทางตัน ARC Prize ได้รับการออกแบบมาเพื่อสร้างแรงบันดาลใจให้นักวิจัยค้นพบแนวทางทางเทคนิคใหม่ๆ ที่ผลักดันความก้าวหน้าของ AGI แบบเปิดไปข้างหน้า’

เช่นเดียวกับ HGP โครงการ AI ของมนุษย์จะอุทิศส่วนหนึ่งของเงินทุนให้กับธรรมาภิบาลและการกำกับดูแลด้านจริยธรรม ซึ่งจะรวมถึงการอภิปรายเกี่ยวกับลิขสิทธิ์ โครงการสามารถช่วยให้สังคมพิจารณาจริยธรรมของการเข้าถึงแหล่งข้อมูลที่ดีที่สุดในการฝึกอบรมฟรีในขณะที่พัฒนาแบบจำลองที่เป็นกรรมสิทธิ์เหนือกว่า ในพื้นที่ชีววิทยา เป็นที่ทราบกันดีว่า Protein Data Bank ซึ่งมีความสำคัญต่อแบบจำลอง AlphaFold ของ Google DeepMind ในการทำนายโครงสร้างโปรตีน อาจต้องใช้เงินทุนเทียบเท่า 1 หมื่นล้านดอลลาร์ในช่วงระยะเวลา 50 ปี โครงการสามารถช่วยในการคิดเกี่ยวกับวิธีที่เรายังคงให้ทุนสนับสนุนการพัฒนา AI หรือวิธีที่ AICs ที่เป็นกรรมสิทธิ์ควรแบ่งปันรายได้กับผู้สร้างงานต้นฉบับ

หลักการปารีสเหล่านี้และโครงการ AI ของมนุษย์จะช่วยพัฒนา AI ทั่วโลกในลักษณะที่เปิดกว้าง ร่วมมือกัน และมีจริยธรรมมากขึ้น พวกเขาจะต่อยอดจากความสำเร็จของผู้มีส่วนร่วมโอเพนซอร์สชั้นนำจากยุโรปถึงตะวันออกกลาง อินเดีย และตอนนี้จีน ภายในกรอบและแพลตฟอร์มซอฟต์แวร์โอเพนซอร์สและ AI ที่มีอยู่

ประวัติศาสตร์ซ้ำรอยกับ AI

โอกาสที่อยู่ตรงหน้าเรานั้นยิ่งใหญ่ Mistral AI, kyutai, BFL, Stability และล่าสุด DeepSeek ได้ให้ความหวังแก่สาธารณชนว่าอนาคตที่ความร่วมมือเป็นคู่แข่งหรือแม้แต่เหนือกว่า AICs ที่เป็นกรรมสิทธิ์นั้นเป็นไปได้

เรายังอยู่ในช่วงเริ่มต้นของความก้าวหน้าทางเทคโนโลยีนี้ เราควรขอบคุณสำหรับการมีส่วนร่วมที่ AICs ได้ทำไว้ในสาขานี้ การประชุมสุดยอด AI Action Summit ควรเป็นโอกาสในการส่งเสริมนวัตกรรมความร่วมมือในระดับที่ไม่เคยมีมาก่อน และนำผู้เล่นจำนวนมากที่สุดเท่าที่จะเป็นไปได้มาอยู่ด้านที่ถูกต้องของประวัติศาสตร์

มันคือปี 1789 อีกครั้ง เรากำลังเห็นการต่อสู้เพื่ออำนาจอธิปไตยทางเทคโนโลยี การกระจายอำนาจ และการเรียกร้องให้ AI เป็นสินค้าสาธารณะ และเช่นเดียวกับในปี 1789 การปฏิวัติครั้งนี้จะไม่ถูกจำกัด