AI โอเพนซอร์ส: ความจำเป็นเร่งด่วนของโลกตะวันตก

การเกิดขึ้นของโมเดลปัญญาประดิษฐ์ (AI) ที่ซับซ้อน เช่น R1 ของ DeepSeek ได้ส่งแรงกระเพื่อมไปทั่ววงการเทคโนโลยีตะวันตก กระตุ้นให้เกิดการพิจารณาตนเองเกี่ยวกับกลยุทธ์การพัฒนา AI โดยเฉพาะอย่างยิ่งเกี่ยวกับความต้องการที่มักจะแข่งขันกันระหว่างความคุ้มค่าและความสามารถที่ล้ำสมัย อย่างไรก็ตาม ผลกระทบนั้นขยายไปไกลกว่าเพียงแค่เกณฑ์มาตรฐานทางเทคนิคหรือประสิทธิภาพทางเศรษฐกิจ เส้นทางที่ DeepSeek ชี้ให้เห็นนั้นบังคับให้ต้องพิจารณาอย่างลึกซึ้งและเร่งด่วนมากขึ้น: การผงาดขึ้นของ AI ประเภทเฉพาะ โดยเฉพาะอย่างยิ่งประเภทที่ได้รับการสนับสนุนจากรัฐที่ไม่ใช่ประชาธิปไตย มีความหมายต่อสุขภาพและหลักการของประชาธิปไตยในอนาคตอย่างไร ในยุคที่อัลกอริทึมเข้ามามีบทบาทมากขึ้นเรื่อยๆ?

หัวใจของความท้าทายนี้อยู่ที่แนวคิดของ open-source AI ซึ่งหมายถึงระบบ AI ที่ส่วนประกอบพื้นฐาน ตั้งแต่โค้ดพื้นฐานไปจนถึงชุดข้อมูลที่ใช้ในการฝึกอบรม สามารถเข้าถึงได้แบบสาธารณะ ความโปร่งใสนี้ช่วยให้ผู้ใช้ไม่เพียงแต่ใช้เครื่องมือเท่านั้น แต่ยังสามารถศึกษาการทำงานภายใน ปรับเปลี่ยนเพื่อวัตถุประสงค์เฉพาะ และแบ่งปันนวัตกรรมของตนได้ แม้ว่าคำจำกัดความที่แม่นยำของ ‘open source’ ในบริบทของโมเดล AI ที่ซับซ้อนยังคงเป็นที่ถกเถียงกัน แต่ศักยภาพของมันนั้นมหาศาล มันสัญญาว่าจะทำให้การพัฒนา AI เป็นประชาธิปไตย ส่งเสริมระบบนิเวศที่มีชีวิตชีวาซึ่งนักพัฒนาสามารถทำงานร่วมกันและต่อยอดจากงานของกันและกันได้ จิตวิญญาณแห่งความร่วมมือนี้สามารถเสริมศักยภาพให้กับบุคคล นักวิจัย และชุมชนในการปรับแต่งโซลูชัน AI สำหรับภาคส่วนที่สำคัญ เช่น การศึกษา การดูแลสุขภาพ และบริการทางการเงิน ซึ่งอาจปลดล็อกนวัตกรรมที่สำคัญและเร่งความก้าวหน้าทางเศรษฐกิจในวงกว้าง

ทว่า เส้นทางเทคโนโลยีที่มีแนวโน้มดีนี้ก็มีความซับซ้อนและความเสี่ยงโดยธรรมชาติ โดยเฉพาะอย่างยิ่งเกี่ยวกับธรรมาภิบาลและค่านิยมพื้นฐาน ตัวอย่างเช่น รายงานเกี่ยวกับโมเดล DeepSeek R1 ชี้ให้เห็นว่าอาจมีกลไกที่เซ็นเซอร์หรือระงับข้อมูลบางอย่างจากผู้ใช้ ตัวอย่างเดียวนี้นี้เน้นย้ำถึงอันตรายที่ใหญ่กว่า: ประเทศประชาธิปไตยไม่เพียงแต่เสี่ยงต่อการตามหลังในการแข่งขันทางเทคโนโลยีเพื่อประสิทธิภาพ AI ที่เหนือกว่าเท่านั้น พวกเขายังเผชิญกับอันตรายที่สำคัญไม่แพ้กันในการเสียพื้นที่ในการต่อสู้ที่สำคัญเพื่อกำหนด ธรรมาภิบาล ของ AI ซึ่งอาจทำให้ระบบที่ฝังแน่นด้วยหลักการเผด็จการแพร่กระจายไปทั่วโลก บดบังระบบที่ออกแบบมาเพื่อสนับสนุนบรรทัดฐานประชาธิปไตย เช่น เสรีภาพในการแสดงออกและการเข้าถึงข้อมูล

ดังนั้น ช่วงเวลาปัจจุบันจึงเรียกร้องให้มีการตอบสนองเชิงรุกและประสานงานกัน เป็นเรื่องจำเป็นที่สหรัฐอเมริกา (United States) จะต้องสร้างความร่วมมือที่แข็งแกร่งกับพันธมิตรประชาธิปไตย โดยมีสหภาพยุโรป (European Union) เป็นผู้ร่วมมือที่สำคัญอย่างยิ่ง เพื่อสร้างมาตรฐานระดับโลกและแนวปฏิบัติที่ดีที่สุดสำหรับ open-source AI โดยเฉพาะ การใช้ประโยชน์จากกรอบกฎหมายที่มีอยู่และอิทธิพลทางการตลาดที่สำคัญ พันธมิตรข้ามมหาสมุทรแอตแลนติกเหล่านี้ควรเป็นหัวหอกในการสร้างโครงสร้างธรรมาภิบาลที่แข็งแกร่งสำหรับสาขาที่กำลังเติบโตนี้ ขั้นตอนแรกที่สำคัญคือการรวมตัวกันอย่างเป็นทางการเกี่ยวกับคำจำกัดความที่ใช้งานได้ของ open-source AI เพื่อให้แน่ใจว่ามีความชัดเจนและประสิทธิผลด้านกฎระเบียบ หลังจากนั้น จำเป็นต้องเร่งความพยายามร่วมกันเพื่อให้แน่ใจว่าค่านิยมประชาธิปไตย – ความโปร่งใส ความเป็นธรรม ความรับผิดชอบ และการเคารพสิทธิขั้นพื้นฐาน – ได้รับการฝังลึกอยู่ในโมเดล open-source AI ที่กำลังพัฒนาและส่งเสริม การผลักดันเชิงกลยุทธ์ดังกล่าวมีความสำคัญอย่างยิ่งในการปูทางไปสู่อนาคตของ AI ที่เปิดกว้าง โปร่งใส และเสริมสร้างพลังอำนาจให้กับทุกคนอย่างแท้จริง แทนที่จะเป็นอนาคตที่ถูกควบคุมอย่างแนบเนียนโดยการควบคุมแบบเผด็จการ

การยอมรับความเปิดกว้างอย่างมีกลยุทธ์ของจีน (China’s Calculated Embrace of Openness)

การทำความเข้าใจพลวัตในปัจจุบันจำเป็นต้องตระหนักถึงการเคลื่อนไหวเชิงกลยุทธ์ของจีนในขอบเขต AI ส่วนหนึ่งของความสำเร็จที่น่าทึ่งของ DeepSeek ไม่ใช่แค่ความสามารถทางเทคนิคเท่านั้น แต่ยังสอดคล้องกับสัญญาณที่ชัดเจนมากขึ้นจากพรรคคอมมิวนิสต์จีน (CCP) ที่บ่งชี้ถึงความตั้งใจที่จะรวมการกำหนดบรรทัดฐานของ open-source AI เข้ากับสถาปัตยกรรมทางกฎหมายและนโยบายโดยตรง ตัวบ่งชี้ที่สำคัญมาถึงในเดือนเมษายน 2024 ด้วยร่างกฎหมาย Model AI Law เอกสารนี้ระบุอย่างชัดเจนถึงการสนับสนุนของปักกิ่งในการส่งเสริมระบบนิเวศ open-source AI ในประเทศ

มาตรา 19 ของร่างกฎหมายนี้ประกาศว่ารัฐ ‘ส่งเสริมการสร้างระบบนิเวศโอเพนซอร์ส’ และ ‘สนับสนุนหน่วยงานที่เกี่ยวข้องในการสร้างหรือดำเนินการแพลตฟอร์มโอเพนซอร์ส ชุมชนโอเพนซอร์ส และโครงการโอเพนซอร์ส’ อย่างแข็งขัน นอกจากนี้ยังส่งเสริมให้บริษัทต่างๆ ทำให้ ‘ซอร์สโค้ดซอฟต์แวร์ การออกแบบฮาร์ดแวร์ และบริการแอปพลิเคชันเปิดเผยต่อสาธารณะ’ เพื่อส่งเสริมการแบ่งปันในอุตสาหกรรมและนวัตกรรมร่วมกัน บางทีสิ่งที่บ่งบอกได้ชัดเจนที่สุดคือ ร่างกฎหมายเสนอแนะให้ลดหรือยกเลิกความรับผิดทางกฎหมายสำหรับหน่วยงานที่ให้บริการโมเดล open-source AI โดยขึ้นอยู่กับการจัดตั้งระบบธรรมาภิบาลที่สอดคล้องกับ ‘มาตรฐานระดับชาติ’ และการใช้ ‘มาตรการความปลอดภัยที่สอดคล้องกัน’ นี่แสดงถึงการเปลี่ยนแปลงที่อาจมีความสำคัญจากกฎหมายที่เกี่ยวข้องกับ AI ก่อนหน้านี้ในจีน ซึ่งมักจะเน้นการคุ้มครองสิทธิผู้ใช้มากกว่าอย่างชัดเจน แม้จะยังเป็นร่าง แต่บทบัญญัติเฉพาะภายใน Model AI Law ก็เป็นพิมพ์เขียวที่มีค่า ซึ่งเผยให้เห็นว่าจีนมีวิสัยทัศน์ในการปรับใช้ open-source AI ในประเทศอย่างไร และที่สำคัญคือ โมเดล AI ที่ส่งออกอาจมีลักษณะอย่างไร

สิ่งที่ตอกย้ำทิศทางเชิงกลยุทธ์นี้คือ AI Safety Governance Framework ซึ่งเป็นเอกสารที่จีนตั้งใจจะใช้ประโยชน์ในระดับสากลเพื่อ ‘ส่งเสริมความร่วมมือระหว่างประเทศด้านธรรมาภิบาลความปลอดภัย AI ในระดับโลก’ กรอบการทำงานนี้สะท้อนถึงความมุ่งมั่นที่เพิ่มขึ้นของประเทศเกี่ยวกับ open-source AI ร่างโดยคณะกรรมการเทคนิคแห่งชาติ 260 ด้านความมั่นคงปลอดภัยไซเบอร์ของจีน (China’s National Technical Committee 260 on Cybersecurity) – ซึ่งเป็นหน่วยงานที่เชื่อมโยงอย่างใกล้ชิดกับ Cyberspace Administration of China ที่ทรงอิทธิพล ซึ่งแนวทางความมั่นคงปลอดภัยไซเบอร์ได้รับการรับรองอย่างเป็นทางการโดย CCP ในเดือนกันยายน 2024 – กรอบการทำงานระบุอย่างชัดเจนว่า: ‘เราควรส่งเสริมการแบ่งปันความรู้ใน AI ทำให้เทคโนโลยี AI พร้อมใช้งานสำหรับสาธารณะภายใต้เงื่อนไขโอเพนซอร์ส และร่วมกันพัฒนาชิป กรอบการทำงาน และซอฟต์แวร์ AI’ การรวมถ้อยแถลงที่หนักแน่นเช่นนี้ไว้ในเอกสารที่มุ่งเป้าไปที่ผู้ชมทั่วโลกส่งสัญญาณอย่างชัดเจนถึงความทะเยอทะยานของจีนที่ไม่เพียงแต่จะเข้าร่วมในขบวนการ open-source AI เท่านั้น แต่ยังวางตำแหน่งตนเองในฐานะผู้สนับสนุนและผู้กำหนดมาตรฐานชั้นนำในขอบเขตเทคโนโลยีที่สำคัญนี้ อย่างไรก็ตาม การยอมรับ ‘ความเปิดกว้าง’ อย่างมีกลยุทธ์นี้ ดำเนินการภายใต้สภาพแวดล้อมที่มีการควบคุมอย่างชัดเจน โดยมีเป้าหมายเพื่อควบคุมพลังแห่งนวัตกรรมของโอเพนซอร์สในขณะที่ยังคงรักษาความสอดคล้องกับวัตถุประสงค์ของรัฐ

ความลังเลของอเมริกา: การป้องกันเหนือทิศทาง (America’s Hesitation: Defense Over Direction)

ข้ามมหาสมุทรแปซิฟิก เรื่องราวเกี่ยวกับ open-source AI ในสหรัฐอเมริกา (United States) แสดงให้เห็นถึงความแตกต่างอย่างชัดเจน เป็นเวลาพอสมควรแล้วที่ผู้สนับสนุนในอุตสาหกรรมเทคโนโลยีและสถาบันการศึกษาได้สนับสนุนประโยชน์มากมายของแนวทางโอเพนซอร์ส บุคคลสำคัญในอุตสาหกรรมได้เรียกร้องต่อสาธารณะให้รัฐบาลสหรัฐฯ ให้ความสำคัญเชิงกลยุทธ์มากขึ้นในการส่งเสริมการพัฒนา open-source AI ตัวอย่างที่น่าสังเกตคือการเปิดตัวโมเดลโอเพนซอร์ส Llama 3.1 ของ Mark Zuckerberg พร้อมกับการยืนยันของเขาว่าโอเพนซอร์ส ‘เป็นโอกาสที่ดีที่สุดของโลก’ ในการสร้าง ‘โอกาสทางเศรษฐกิจและความมั่นคงสำหรับทุกคน’ อย่างกว้างขวาง

แม้จะมีการสนับสนุนอย่างแข็งขันจากกลุ่มผู้มีอิทธิพลเหล่านี้ สหรัฐอเมริกากลับล้มเหลวอย่างเห็นได้ชัดในการจัดตั้งกรอบกฎหมายที่สำคัญใดๆ ที่ออกแบบมาโดยเฉพาะเพื่อส่งเสริมหรือชี้นำการพัฒนา open-source AI แม้ว่าวุฒิสมาชิกสหรัฐฯ จะเสนอร่างกฎหมายในปี 2023 โดยมีเป้าหมายเพื่อสร้างกรอบการทำงานสำหรับความปลอดภัยของ ซอฟต์แวร์ โอเพนซอร์ส แต่กฎหมายนี้ก็ค้างเติ่งโดยไม่มีความคืบหน้าอย่างมีนัยสำคัญ หน่วยงานของรัฐบาลกลางได้กล่าวถึงประเด็นนี้ แต่บ่อยครั้งด้วยท่าทีที่ระมัดระวังหรือตอบสนอง ปีที่แล้ว National Telecommunications and Information Administration (NTIA) ได้เผยแพร่รายงานที่ตรวจสอบโมเดลพื้นฐาน AI แบบ dual-use ที่มี ‘open weights’ สิ่งสำคัญคือต้องทราบว่า ‘open weights’ โดยทั่วไปหมายความว่าพารามิเตอร์ของโมเดลพร้อมใช้งาน แต่ไม่จำเป็นต้องเป็นไปตามเกณฑ์ทั้งหมดสำหรับการเป็นโอเพนซอร์สอย่างแท้จริง (ซึ่งมักจะรวมถึงการเข้าถึงข้อมูลการฝึกอบรมและโค้ด) รายงานของ NTIA แนะนำให้รัฐบาลเพิ่มการตรวจสอบความเสี่ยงที่อาจเกิดขึ้นที่เกี่ยวข้องกับโมเดล open-weight เหล่านี้ เพื่อพิจารณาข้อจำกัดที่เหมาะสมได้ดีขึ้น ต่อมา กรอบการกำกับดูแล AI ฉบับสุดท้ายของฝ่ายบริหารของ Biden ได้ใช้ท่าทีที่ผ่อนปรนมากขึ้นเล็กน้อยต่อโมเดลแบบเปิด โดยกำหนดข้อกำหนดที่เข้มงวดขึ้นสำหรับโมเดล closed-weight ที่ทรงพลังที่สุด ในขณะที่ส่วนใหญ่ยกเว้นโมเดล open-weight จากข้อจำกัดเฉพาะเหล่านี้

อย่างไรก็ตาม กลยุทธ์ระดับชาติที่ชัดเจนและเชิงรุกสำหรับการสนับสนุน open-source AI แบบประชาธิปไตยยังคงไม่ชัดเจน ทิศทางในอนาคตภายใต้การเปลี่ยนแปลงผู้นำที่อาจเกิดขึ้นได้เพิ่มความไม่แน่นอนอีกชั้นหนึ่ง อดีตประธานาธิบดี Donald Trump ไม่ได้กำหนดนโยบายหรือแนวทางเฉพาะเกี่ยวกับ open-source AI แม้ว่าเขาจะยกเลิกคำสั่งผู้บริหาร AI ฉบับแรกของประธานาธิบดี Biden แต่คำสั่งทดแทนที่ออกก็ไม่ได้ระบุความคิดริเริ่มที่เป็นรูปธรรมใดๆ ที่อุทิศให้กับการส่งเสริมหรือชี้นำการพัฒนา open-source AI

โดยรวมแล้ว แนวทางของอเมริกาดูเหมือนจะเป็นเชิงป้องกันเป็นส่วนใหญ่ จุดสนใจหลักดูเหมือนจะอยู่ที่การพัฒนาโมเดล AI ที่มีความสามารถสูง ซึ่งมักจะเป็นกรรมสิทธิ์ ในขณะเดียวกันก็ใช้ความพยายามอย่างมากในการป้องกันไม่ให้ศัตรู โดยเฉพาะจีน เข้าถึงเทคโนโลยีเซมิคอนดักเตอร์ขั้นสูงและความสามารถด้าน AI ท่าทีป้องกันนี้ แม้จะเข้าใจได้จากมุมมองความมั่นคงของชาติ แต่ก็เสี่ยงต่อการละเลยกลยุทธ์เชิงรุกที่สำคัญ: การเพาะปลูกและส่งเสริมระบบนิเวศทั่วโลกของ open-source AI ที่หยั่งรากในหลักการประชาธิปไตยอย่างแข็งขัน สหรัฐฯ ดูเหมือนจะหมกมุ่นอยู่กับการปกป้องป้อมปราการทางเทคโนโลยีของตน ซึ่งอาจพลาดโอกาสในการกำหนดภูมิทัศน์โลกที่กว้างขึ้นผ่านการเผยแพร่ทางเลือก AI แบบเปิดที่เคารพสิทธิในเชิงรุก

ความขัดแย้งด้านกฎระเบียบของยุโรป: อำนาจและความเฉื่อยชา (Europe’s Regulatory Paradox: Power and Paralysis)

สหภาพยุโรป (European Union) ซึ่งมีชื่อเสียงในด้านจุดยืนด้านกฎระเบียบที่แข็งกร้าวในขอบเขตดิจิทัล นำเสนอความท้าทายประเภทที่แตกต่างกันเกี่ยวกับ open-source AI นับตั้งแต่การบังคับใช้กฎระเบียบคุ้มครองข้อมูลทั่วไป (General Data Protection Regulation - GDPR) ที่เป็นหมุดหมายสำคัญ EU ประสบความสำเร็จในการวางตำแหน่งตนเองในฐานะผู้กำหนดมาตรฐานระดับโลกสำหรับเศรษฐกิจดิจิทัล ประเทศและบริษัทข้ามชาติต่างๆ ทั่วโลกมักจะปรับแนวปฏิบัติของตนให้สอดคล้องกับกรอบการปฏิบัติตามข้อกำหนดของ EU ซึ่งเป็นแนวโน้มที่ขยายไปสู่ขอบเขตของปัญญาประดิษฐ์ด้วยการถือกำเนิดของ EU AI Act ที่ครอบคลุม กฎหมายนี้มีเป้าหมายเพื่อสร้างกฎระเบียบตามความเสี่ยงสำหรับระบบ AI ทั่วทั้งสหภาพ

อย่างไรก็ตาม เมื่อพูดถึงการจัดการกับ open-source AI โดยเฉพาะ กลไกการกำกับดูแลที่น่าเกรงขามของ EU ดูเหมือนจะลังเลอย่างน่าประหลาดใจและความพยายามค่อนข้างด้อยพัฒนา มาตรา 2 ของ AI Act มีการกล่าวถึงสั้นๆ โดยยกเว้นบางประการจากกฎระเบียบสำหรับโมเดล open-source AI ทว่า ผลกระทบในทางปฏิบัติของการยกเว้นนี้ดูเหมือนจะจำกัด โดยเฉพาะอย่างยิ่งเนื่องจากโดยทั่วไปแล้วจะไม่นำไปใช้กับโมเดลที่ปรับใช้เพื่อวัตถุประสงค์ทางการค้า ขอบเขตที่แคบนี้จำกัดผลกระทบในโลกแห่งความเป็นจริงต่อภูมิทัศน์ open-source AI ที่กำลังเติบโตอย่างมีนัยสำคัญ

สถานการณ์ที่ขัดแย้งกันนี้ – การยอมรับโอเพนซอร์สในขณะที่ล้มเหลวในการส่งเสริมอย่างแข็งขัน – ยังคงมีอยู่ในเอกสารคำแนะนำอื่นๆ ของ EU ประมวลแนวปฏิบัติ AI สำหรับวัตถุประสงค์ทั่วไป (General-Purpose AI Code of Practice) ฉบับล่าสุด ซึ่งสมมติว่าเผยแพร่ในเดือนมีนาคม 2025 เพื่อประโยชน์ของการอภิปรายนี้ อาจตระหนักถึงการมีส่วนร่วมในเชิงบวกของโมเดลโอเพนซอร์สในการพัฒนา AI ที่ปลอดภัย มุ่งเน้นมนุษย์ และน่าเชื่อถือ อย่างไรก็ตาม เอกสารดังกล่าวมักขาดการขยายความอย่างมีความหมายหรือมาตรการที่เป็นรูปธรรมที่ออกแบบมาเพื่อ ส่งเสริม การพัฒนาและการนำโมเดล open-source AI ที่อาจเป็นประโยชน์เหล่านี้ไปใช้อย่างแพร่หลายอย่างแข็งขัน แม้แต่ในกรอบยุทธศาสตร์ เช่น EU Competitiveness Compass – ซึ่งออกแบบมาเพื่อจัดการกับการกำกับดูแลที่มากเกินไปและเสริมสร้างความสามารถในการแข่งขันเชิงกลยุทธ์ในด้านสำคัญๆ เช่น AI – คำว่า ‘open source’ ก็หายไปอย่างเห็นได้ชัดหรือได้รับความสนใจน้อยที่สุด

แนวทางที่ระมัดระวังและเกือบจะสงวนท่าทีจากบรัสเซลส์ต่อการยอมรับและควบคุม open-source AI อย่างเต็มที่น่าจะเกิดจากปัจจัยหลายประการ อุปสรรคสำคัญประการหนึ่งคือความยากโดยธรรมชาติในการ กำหนดนิยาม open-source AI อย่างแม่นยำ ซึ่งแตกต่างจากซอฟต์แวร์โอเพนซอร์สแบบดั้งเดิม ซึ่งเกี่ยวข้องกับซอร์สโค้ดเป็นหลัก open-source AI ครอบคลุมโมเดลที่ผ่านการฝึกอบรมล่วงหน้าที่ซับซ้อน ชุดข้อมูลขนาดใหญ่ และสถาปัตยกรรมที่ซับซ้อน การไม่มีคำจำกัดความทางกฎหมายที่เป็นที่ยอมรับในระดับสากล แม้จะมีความพยายามจากองค์กรต่างๆ เช่น Open Source Initiative (OSI) ก็ตาม ทำให้เกิดความไม่แน่นอนทางกฎหมายในระดับหนึ่ง ซึ่งหน่วยงานกำกับดูแล เช่น คณะกรรมาธิการยุโรป (European Commission) มักจะไม่สบายใจ

ทว่า แรงผลักดันพื้นฐานของความเฉื่อยชาเชิงเปรียบเทียบนี้อาจลึกซึ้งกว่านั้น ความสำเร็จของ EU ในการจัดตั้งระบอบการกำกับดูแลที่กว้างขวาง เช่น GDPR อาจทำให้คณะกรรมาธิการระมัดระวังในการสร้างข้อยกเว้นในวงกว้างสำหรับเทคโนโลยีที่ทรงพลังและพัฒนาอย่างรวดเร็วเช่น AI โดยเฉพาะอย่างยิ่งเมื่อรูปแบบโอเพนซอร์สยังคงไม่ชัดเจนนัก อาจมีความกลัวว่าการยอมรับ open-source AI เร็วเกินไป โดยไม่มีรั้วป้องกันที่มั่นคง อาจทำให้อิทธิพลด้านกฎระเบียบระดับโลกที่ EU ได้มาอย่างยากลำบากอ่อนแอลงโดยไม่ได้ตั้งใจ นี่ถือเป็นการเดิมพันเชิงกลยุทธ์ – การให้ความสำคัญกับการควบคุมที่ครอบคลุมมากกว่าการส่งเสริมระบบนิเวศนวัตกรรมแบบเปิดที่อาจมีพลวัตมากกว่า แม้ว่าจะคาดเดาได้น้อยกว่าก็ตาม – ซึ่งเป็นการเดิมพันที่บรัสเซลส์จนถึงขณะนี้ยังแสดงความสนใจเพียงเล็กน้อยที่จะดำเนินการอย่างเด็ดขาด ความเฉื่อยชาด้านกฎระเบียบนี้ทิ้งสุญญากาศที่ผู้อื่นพร้อมที่จะเข้ามาเติมเต็ม

ภูมิทัศน์ภูมิรัฐศาสตร์ที่เปลี่ยนแปลงไปของ AI (The Shifting Geopolitical Landscape of AI)

การบรรจบกันของการผลักดันเชิงกลยุทธ์ของจีนเข้าสู่ open-source AI และความลังเลเชิงเปรียบเทียบของสหรัฐอเมริกาและสหภาพยุโรปกำลังปรับเปลี่ยนภูมิทัศน์ภูมิรัฐศาสตร์ของปัญญาประดิษฐ์อย่างแข็งขัน การขับเคลื่อนอย่างมุ่งมั่นของจีนไปสู่การพึ่งพาตนเองทางเทคโนโลยี ซึ่งเป็นแคมเปญที่ขณะนี้รวมถึงการเสริมสร้างกลยุทธ์เกี่ยวกับ open-source AI อย่างชัดเจน สามารถเข้าใจได้ส่วนหนึ่งว่าเป็นปฏิกิริยาต่อการควบคุมการส่งออกของสหรัฐฯ อย่างต่อเนื่องที่มุ่งเป้าไปที่ฮาร์ดแวร์คอมพิวเตอร์ขั้นสูงและเซมิคอนดักเตอร์ ซึ่งเป็นมาตรการที่ดำเนินการเนื่องจากความกังวลของอเมริกาเกี่ยวกับความมั่นคงของชาติ ความสามารถในการแข่งขันทางเศรษฐกิจ และการคุ้มครองทรัพย์สินทางปัญญา ย้อนหลังไปหลายปี มาตรการตอบโต้ของจีน รวมถึงการยอมรับโอเพนซอร์ส สะท้อนให้เห็นถึงการแข่งขันเชิงกลยุทธ์ที่เข้มข้นขึ้นในวงกว้างเพื่อความเป็นใหญ่ทางเทคโนโลยีระหว่างสองมหาอำนาจโลก ในขณะเดียวกัน EU โดยทั่วไปจะยืนยันอิทธิพลของตนในการแข่งขันนี้ ไม่ใช่ผ่านการแข่งขันทางเทคโนโลยีโดยตรงในระดับเดียวกัน แต่โดยการกำหนดบรรทัดฐานระดับโลกที่มุ่งเน้นไปที่การปกป้องสิทธิขั้นพื้นฐาน ความเป็นส่วนตัว และค่านิยมประชาธิปไตย เช่น ความเป็นธรรมและความรับผิดชอบของอัลกอริทึม – มาตรฐานที่ได้กำหนดนโยบายของบริษัทเทคโนโลยีรายใหญ่ระดับโลกอย่างแท้จริง

อย่างไรก็ตาม ด้วยการวางตำแหน่งตนเองอย่างแข็งขันในฐานะผู้นำและผู้สนับสนุน open-source AI จีนกำลังเปลี่ยนความท้าทาย – การเข้าถึงเทคโนโลยีตะวันตกบางอย่างที่ถูกจำกัด – ให้เป็นโอกาสเชิงกลยุทธ์อย่างชาญฉลาด มันกำลังสร้างและทำการตลาดเวอร์ชันของตนเองเกี่ยวกับความเปิดกว้างของ AI ให้กับประชาคมโลกอย่างมีประสิทธิภาพ โดยเฉพาะอย่างยิ่งกับประเทศกำลังพัฒนาที่กำลังมองหาเครื่องมือ AI ที่เข้าถึงได้ การเกิดขึ้นของโมเดลจีนที่มีความสามารถ เช่น R1 ของ DeepSeek ควบคู่ไปกับข้อเสนอจากยักษ์ใหญ่ด้านเทคโนโลยีในประเทศอื่นๆ เช่น Alibaba กำลังเริ่มเปลี่ยนพลวัตระดับโลก มันอาจลดความต้องการโมเดล AI แบบปิดที่เป็นกรรมสิทธิ์โดยเฉพาะทั่วโลก โดยเฉพาะอย่างยิ่งหากทางเลือกแบบเปิดดูเหมือนจะเข้าถึงได้ง่ายกว่าหรือคุ้มค่ากว่า ตัวอย่างเช่น DeepSeek ได้เปิดตัวโมเดลขนาดเล็กที่ต้องการพลังการประมวลผลน้อยลง เหมาะสำหรับอุปกรณ์ที่มีกำลังการประมวลผลจำกัด แพลตฟอร์มอย่าง Hugging Face ซึ่งเป็นศูนย์กลางสำคัญสำหรับการพัฒนา AI มีรายงานว่าได้เริ่มวิเคราะห์และจำลองแบบแง่มุมต่างๆ ของวิธีการฝึกอบรมของ DeepSeek-R1 เพื่อปรับปรุงโมเดลของตนเอง แม้แต่ยักษ์ใหญ่ด้านเทคโนโลยีตะวันตกอย่าง Microsoft, OpenAI และ Meta ก็กำลังสำรวจเทคนิคต่างๆ เช่น model distillation ซึ่งได้รับความสนใจส่วนหนึ่งเนื่องจากการพัฒนาของ DeepSeek

ภูมิทัศน์ที่เปลี่ยนแปลงไปนี้เผยให้เห็นว่าจีนกำลังขับเคลื่อนการสนทนาระดับโลกเกี่ยวกับความเปิดกว้างของ AI ในเชิงรุก บีบให้สหรัฐอเมริกาเป็นครั้งแรกที่ต้องตอบสนองและปรับตัวเข้ากับวาทกรรมนี้ ในขณะเดียวกัน EU ยังคงติดอยู่ในสภาวะเฉื่อยชาทางกฎหมายและกฎระเบียบเกี่ยวกับโอเพนซอร์ส ความไม่สมดุลนี้สร้าง ความไม่สมดุลของอำนาจ ที่เห็นได้ชัดเจน โดยเฉพาะอย่างยิ่งในขอบเขตที่สำคัญของธรรมาภิบาลและการแพร่กระจายของ open-source AI

ที่สำคัญ เวอร์ชันของ open-source AI ที่จีนกำลังเผยแพร่นั้นมีความกังวลอย่างมากสำหรับสังคมประชาธิปไตย CCP ดูเหมือนจะใช้ระบบ ‘สองราง’ (two-track) อย่างมีกลยุทธ์: ส่งเสริมความเปิดกว้างและความร่วมมือเชิงเปรียบเทียบระหว่างนักพัฒนา AI และบริษัทต่างๆ เพื่อกระตุ้นนวัตกรรม ในขณะเดียวกันก็ฝังการควบคุมและข้อจำกัดภายในโมเดลที่เปิดเผยต่อสาธารณะเพื่อจำกัดการไหลของข้อมูลและเสรีภาพในการแสดงออก ‘ความเปิดกว้าง’ นี้ถูกกำหนดเงื่อนไขอย่างหนักโดยรูปแบบการควบคุมเทคโนโลยีที่จัดตั้งขึ้นของจีน ซึ่งมักต้องการให้ข้อมูลนำเข้าและผลลัพธ์ของโมเดลสอดคล้องกับเรื่องเล่าที่รัฐอนุมัติ ค่านิยมของ CCP และฉายภาพลักษณ์ที่ดีของชาติ แม้แต่ใน AI Safety Governance Framework ที่มุ่งเน้นระดับโลก ซึ่งทางการจีนยอมรับหลักการโอเพนซอร์สอย่างเปิดเผย ก็ยังมีภาษาที่บ่งบอกถึงเนื้อหาที่สร้างโดย AI ที่เป็นภัยคุกคามต่อ ‘ความมั่นคงทางอุดมการณ์’—ซึ่งเป็นสัญญาณที่ชัดเจนถึงข้อจำกัดโดยธรรมชาติของ CCP เกี่ยวกับเสรีภาพทางความคิดและการพูด

หากไม่มีกรอบทางเลือกที่แข็งแกร่งซึ่งมีพื้นฐานมาจากการคุ้มครองหลักการประชาธิปไตยและสิทธิมนุษยชนขั้นพื้นฐาน โลกก็เสี่ยงที่จะเห็นการผลิตซ้ำและการนำการตีความ open-source AI ที่เข้มงวดมากขึ้นของจีนไปใช้อย่างแพร่หลาย ระบอบเผด็จการและแม้แต่ผู้กระทำการที่ไม่ใช่รัฐทั่วโลกอาจสร้างต่อยอดจากโมเดลเหล่านี้ได้อย่างง่ายดาย ทำให้เกิดการเซ็นเซอร์และการสอดแนมที่ซับซ้อน ในขณะที่อ้างอย่างทำให้เข้าใจผิดว่าพวกเขากำลังส่งเสริมการเข้าถึงเทคโนโลยีเท่านั้น ดังนั้น การมุ่งเน้นไปที่การเทียบเท่าประสิทธิภาพทางเทคโนโลยีของจีนเพียงอย่างเดียวจึงไม่เพียงพอ ประชาธิปไตยต้องตอบสนองเชิงกลยุทธ์โดยการเป็นผู้นำในการจัดตั้งและส่งเสริม ธรรมาภิบาลแบบประชาธิปไตย สำหรับยุค open-source AI

การสร้างเส้นทางข้ามมหาสมุทรแอตแลนติกไปข้างหน้า (Forging a Transatlantic Path Forward)

เส้นทางปัจจุบันเรียกร้องให้มีการดำเนินการอย่างเด็ดขาดและความร่วมมือครั้งใหม่ระหว่างประชาธิปไตยชั้นนำของโลก สหรัฐอเมริกาและสหภาพยุโรปควรพิจารณาอย่างจริงจังในการเริ่มใช้กลยุทธ์ open-source diplomacy ซึ่งเกี่ยวข้องกับการส่งเสริมการพัฒนาและการแบ่งปันโมเดล AI ที่มีความสามารถ น่าเชื่อถือ และเคารพสิทธิทั่วโลกในเชิงรุก เพื่อเป็นน้ำหนักถ่วงต่อทางเลือกแบบเผด็จการ หัวใจสำคัญของความพยายามนี้คือการสร้าง กรอบธรรมาภิบาลที่เป็นหนึ่งเดียว สำหรับ open-source AI ซึ่งพัฒนาร่วมกันโดย US และ EU

เพื่อกำหนดอนาคต AI แบบประชาธิปไตยอย่างมีประสิทธิภาพ การจัดตั้ง คณะทำงานข้ามมหาสมุทรแอตแลนติกว่าด้วย open-source AI โดยเฉพาะเป็นขั้นตอนต่อไปที่สำคัญ กลุ่มนี้ควรใช้ประโยชน์จากโครงสร้างที่มีอยู่ตามความเหมาะสม เช่น Global Partnership on Artificial Intelligence (GPAI) แต่ที่สำคัญต้องแน่ใจว่ามีการมีส่วนร่วมและการป้อนข้อมูลอย่างแข็งขันจากบริษัทเทคโนโลยีชั้นนำ นักวิจัยทางวิชาการ และผู้เชี่ยวชาญภาคประชาสังคมจากทั้งสองฝั่งของมหาสมุทรแอตแลนติกตลอดกระบวนการพัฒนากรอบการทำงาน แนวทางที่ครอบคลุมนี้มีความสำคัญอย่างยิ่งต่อการสร้างมาตรฐานที่มีทั้งหลักการและปฏิบัติได้จริง

ประการที่สอง ทั้งสหรัฐอเมริกาและ EU จำเป็นต้องทุ่มเททรัพยากรที่จับต้องได้ให้กับวิสัยทัศน์นี้ ซึ่งหมายถึงการจัดสรรเงินทุนเชิงกลยุทธ์ให้กับสถาบันการศึกษา ห้องปฏิบัติการวิจัย และสตาร์ทอัพเชิงนวัตกรรมที่มุ่งเน้นการพัฒนา โมเดล open-source AI ที่สอดคล้องกับค่านิยมประชาธิปไตยอย่างชัดเจน โดยเฉพาะ ลักษณะสำคัญของโมเดลดังกล่าว ได้แก่:

  • ความโปร่งใสในการออกแบบและข้อมูลการฝึกอบรม
  • การป้องกันที่แข็งแกร่งต่อการเซ็นเซอร์และการบิดเบือน
  • กลไกสำหรับความรับผิดชอบและการลดอคติ
  • การเคารพความเป็นส่วนตัวและสิทธิขั้นพื้นฐานในตัว

การส่งเสริมโมเดลประชาธิปไตยเหล่านี้จำเป็นต้องมีการยอมรับที่ชัดเจนจากผู้กำหนดนโยบายทั้งในวอชิงตันและบรัสเซลส์ว่า ผลประโยชน์เชิงกลยุทธ์ระยะยาวของการส่งเสริมระบบนิเวศทั่วโลกบนพื้นฐานของหลักการเหล่านี้มีน้ำหนักมากกว่าความเสี่ยงระยะสั้นที่รับรู้ซึ่งเกี่ยวข้องกับความเปิดกว้างอย่างมีนัยสำคัญ ในขณะเดียวกัน EU ต้องใช้ประโยชน์จากความสามารถด้านกฎระเบียบที่จัดตั้งขึ้นอย่างเด็ดขาดมากขึ้นในด้านนี้โดยเฉพาะ ในขณะที่ยังคงรักษาความมุ่งมั่นต่อมาตรฐานระดับสูง บรัสเซลส์จำเป็นต้องเอาชนะความลังเลเกี่ยวกับคำจำกัดความทางกฎหมายของ open-source AI และดำเนินการอย่างรวดเร็วยิ่งขึ้นเพื่อกำหนดแนวทางและแรงจูงใจที่ชัดเจน ซึ่งจะช่วยต้านทานแรงผลักดันที่เพิ่มขึ้นของจีนในการกำหนดบรรทัดฐานระดับโลก การยอมรับความไม่แน่นอนที่มีการจัดการในระดับหนึ่งอาจจำเป็นเพื่อหลีกเลี่ยงการเสียพื้นที่เพิ่มเติม

แม้ว่าความสัมพันธ์ข้ามมหาสมุทรแอตแลนติกอาจเผชิญกับความวุ่นวายในบางครั้งในด้านต่างๆ แต่ความท้าทายที่เกิดจากการผงาดขึ้นของจีนในด้าน open-source AI ตอกย้ำถึงความจำเป็นอย่างยิ่งยวดของ ความร่วมมือระหว่าง US-EU มากกว่าการแข่งขัน ในขอบเขตนี้ การทวงคืนความเป็นผู้นำในเวทีเทคโนโลยีที่สำคัญนี้จำเป็นต้องมีความคิดริเริ่มข้ามมหาสมุทรแอตแลนติกที่ประสานงานกันและมองไปข้างหน้า ความคิดริเริ่มนี้ต้องบูรณาการการพัฒนานโยบายเชิงรุก การให้ทุนวิจัยที่ตรงเป้าหมาย และการสนับสนุนนวัตกรรม ทั้งหมดนี้มุ่งเป้าไปที่การกำหนดมาตรฐานระดับโลกสำหรับอนาคต AI ที่เคารพสิทธิ โปร่งใส สร้างสรรค์ และเสริมสร้างพลังอำนาจให้กับผู้คนทั่วโลกอย่างแท้จริง เวลาสำหรับการสังเกตการณ์อย่างลังเลได้สิ้นสุดลงแล้ว ถึงเวลาแล้วสำหรับการดำเนินการที่เด็ดขาดและเป็นหนึ่งเดียว