การนำทางเขาวงกตด้านกฎระเบียบ: การเรียกร้องให้มีเอกภาพ (และการยึดหลักการ)
ประเด็นร่วมที่ปรากฏในการยื่นข้อเสนอของบริษัท AI รายใหญ่หลายแห่งคือความกังวลอย่างชัดเจนเกี่ยวกับกฎระเบียบ AI ระดับรัฐที่กำลังขยายตัว OpenAI ผู้สร้าง ChatGPT เรียกร้องอย่างชัดเจนให้มีการช่วยเหลือจากสิ่งที่มองว่าเป็นร่างกฎหมายที่แตกต่างกันกว่า 700 ฉบับที่กำลังหมุนเวียนอยู่ในระดับรัฐ อย่างไรก็ตาม ข้อเสนอของ OpenAI ไม่ใช่กฎหมายของรัฐบาลกลาง แต่เป็น กรอบการทำงานโดยสมัครใจที่แคบ กรอบการทำงานนี้จะยึดหลักกฎระเบียบของรัฐ โดยเสนอให้บริษัท AI เป็นเหมือนท่าเรือที่ปลอดภัย ในการแลกเปลี่ยนกับการคุ้มครองนี้ บริษัทต่างๆ จะสามารถเข้าถึงสัญญาของรัฐบาลที่มีกำไร และได้รับการแจ้งเตือนล่วงหน้าเกี่ยวกับภัยคุกคามความปลอดภัยที่อาจเกิดขึ้น ในทางกลับกัน รัฐบาลจะได้รับอำนาจในการทดสอบความสามารถของแบบจำลองใหม่และเปรียบเทียบกับคู่แข่งต่างประเทศ
Google สะท้อนความรู้สึกนี้ โดยสนับสนุนการยึดหลักกฎหมายของรัฐด้วย “กรอบการทำงานระดับชาติที่เป็นหนึ่งเดียวสำหรับแบบจำลอง AI ระดับแนวหน้า” ตามคำกล่าวของ Google กรอบการทำงานนี้ควรให้ความสำคัญกับความมั่นคงของชาติ ในขณะเดียวกันก็ส่งเสริมสภาพแวดล้อมที่เอื้อต่อการพัฒนานวัตกรรม AI ของอเมริกา อย่างไรก็ตาม Google ไม่ได้ต่อต้านกฎระเบียบ AI ของรัฐบาลกลางโดยเนื้อแท้ ซึ่งแตกต่างจาก OpenAI โดยมีเงื่อนไขว่าจะต้องมุ่งเน้นไปที่ การใช้งานเฉพาะ ของเทคโนโลยี ข้อแม้ที่สำคัญสำหรับ Google คือผู้พัฒนา AI ไม่ควรต้องรับผิดชอบต่อการใช้เครื่องมือของตนในทางที่ผิดโดยผู้อื่น Google ยังใช้โอกาสนี้ผลักดันนโยบายความเป็นส่วนตัวของรัฐบาลกลางฉบับใหม่ โดยให้เหตุผลว่านโยบายดังกล่าวส่งผลกระทบต่ออุตสาหกรรม AI
นอกเหนือจากกฎระเบียบภายในประเทศแล้ว Google ยังเรียกร้องให้ฝ่ายบริหารของสหรัฐฯ มีส่วนร่วมกับรัฐบาลอื่นๆ ในด้านกฎหมาย AI อย่างแข็งขัน บริษัทเตือนโดยเฉพาะอย่างยิ่งเกี่ยวกับกฎหมายที่อาจบังคับให้บริษัทต่างๆ เปิดเผยความลับทางการค้า โดยมองเห็นบรรทัดฐานระหว่างประเทศที่รัฐบาลของบริษัทเท่านั้นที่จะมีอำนาจในการประเมินแบบจำลอง AI ของตนอย่างละเอียด
ความท้าทายของจีน: การควบคุมการส่งออกและการแข่งขันเชิงกลยุทธ์
ความก้าวหน้าอย่างรวดเร็วของ AI ของจีนปรากฏเด่นชัดในการยื่นข้อเสนอของผู้เล่นหลักทั้งหมด กฎ “AI diffusion” ซึ่งนำเสนอโดยฝ่ายบริหารของ Biden ในเดือนมกราคม 2024 เพื่อจำกัดการเข้าถึงเทคโนโลยีขั้นสูงของสหรัฐฯ ของจีน กลายเป็นจุดสนใจของการอภิปราย แม้ว่าบริษัททั้งหมดจะรับทราบถึงการมีอยู่ของกฎ แต่การปรับเปลี่ยนที่เสนอเผยให้เห็นแนวทางที่แตกต่างกันอย่างสิ้นเชิง
OpenAI เสนอกลยุทธ์ “การทูตเชิงพาณิชย์” โดยแนะนำให้ขยายระดับบนสุดของกฎ ซึ่งปัจจุบันอนุญาตให้นำเข้าชิป AI ของสหรัฐฯ ได้ไม่จำกัด เพื่อรวมประเทศต่างๆ มากขึ้น เงื่อนไขคืออะไร? ประเทศเหล่านี้ต้องยึดมั่นใน “หลักการ AI แบบประชาธิปไตย” โดยปรับใช้ระบบ AI ในลักษณะที่ “ส่งเสริมเสรีภาพให้กับพลเมืองของตนมากขึ้น” แนวทางนี้พยายามใช้ประโยชน์จากความเป็นผู้นำทางเทคโนโลยีของสหรัฐฯ เพื่อจูงใจให้เกิดการนำธรรมาภิบาล AI ที่สอดคล้องกับค่านิยมไปใช้ทั่วโลก
Microsoft มีความปรารถนาเช่นเดียวกับ OpenAI ในการขยายระดับบนสุดของ Diffusion Rule อย่างไรก็ตาม Microsoft ยังเน้นย้ำถึงความจำเป็นในการบังคับใช้ที่เพิ่มขึ้น โดยเรียกร้องให้เพิ่มทรัพยากรให้กับกระทรวงพาณิชย์เพื่อให้แน่ใจว่าชิป AI ที่ล้ำสมัยจะถูกส่งออกและปรับใช้เฉพาะในศูนย์ข้อมูลที่ได้รับการรับรองว่าเชื่อถือได้และปลอดภัยโดยรัฐบาลสหรัฐฯ เท่านั้น มาตรการนี้มีจุดมุ่งหมายเพื่อป้องกันไม่ให้บริษัทจีนหลีกเลี่ยงข้อจำกัดโดยการเข้าถึงชิป AI ที่ทรงพลังผ่าน “ตลาดสีเทา” ที่กำลังเติบโตของผู้ให้บริการศูนย์ข้อมูลขนาดเล็กและมีการตรวจสอบน้อยกว่าในเอเชียและตะวันออกกลาง
Anthropic ผู้พัฒนาแบบจำลอง Claude AI สนับสนุนการควบคุมที่ เข้มงวด ยิ่งขึ้นสำหรับประเทศในระดับที่สองของกฎ AI diffusion โดยเฉพาะอย่างยิ่งการจำกัดการเข้าถึงชิป H100 ของ Nvidia นอกจากนี้ Anthropic ยังเรียกร้องให้สหรัฐฯ ขยายการควบคุมการส่งออกให้ครอบคลุมชิป H20 ของ Nvidia ซึ่งได้รับการออกแบบมาโดยเฉพาะสำหรับตลาดจีนเพื่อให้สอดคล้องกับกฎระเบียบของสหรัฐฯ ที่มีอยู่ สิ่งนี้แสดงให้เห็นถึงจุดยืนที่แข็งกร้าวของ Anthropic ในการป้องกันไม่ให้จีนได้รับเทคโนโลยีใดๆ ที่อาจส่งเสริมความสามารถด้าน AI ของตน
Google ซึ่งแตกต่างจากคู่แข่งอย่างเห็นได้ชัด แสดงการต่อต้านกฎ AI diffusion อย่างตรงไปตรงมา แม้ว่าจะรับทราบถึงความถูกต้องของเป้าหมายด้านความมั่นคงของชาติ แต่ Google แย้งว่ากฎดังกล่าวสร้าง “ภาระที่ไม่สมส่วนต่อผู้ให้บริการคลาวด์ของสหรัฐฯ” จุดยืนนี้สะท้อนให้เห็นถึงความกังวลในวงกว้างของ Google เกี่ยวกับศักยภาพของกฎระเบียบในการขัดขวางนวัตกรรมและขัดขวางความสามารถในการแข่งขันระดับโลก
นอกเหนือจากกฎ diffusion แล้ว OpenAI ยังเพิ่มเดิมพันด้วยการเสนอให้มีการแบนชิป Huawei และ “แบบจำลองของจีนที่ละเมิดความเป็นส่วนตัวของผู้ใช้และสร้างความเสี่ยงด้านความปลอดภัย เช่น ความเสี่ยงในการโจรกรรม IP” ทั่วโลก สิ่งนี้ยังถูกตีความอย่างกว้างขวางว่าเป็นการขุดคุ้ย DeepSeek
ลิขสิทธิ์และเชื้อเพลิงของ AI: การนำทางทรัพย์สินทางปัญญา
ประเด็นที่ละเอียดอ่อนของลิขสิทธิ์ โดยเฉพาะอย่างยิ่งในบริบทของการฝึกอบรมแบบจำลอง AI ก็ได้รับความสนใจอย่างมากเช่นกัน OpenAI ซึ่งเป็นการตำหนิ AI Act ของยุโรปอย่างชัดเจน วิพากษ์วิจารณ์บทบัญญัติที่ให้สิทธิ์แก่ผู้ถือสิทธิ์ในการเลือกที่จะไม่ให้งานของตนถูกนำไปใช้ในการฝึกอบรม AI OpenAI เรียกร้องให้ฝ่ายบริหารของสหรัฐฯ “ป้องกันไม่ให้ประเทศที่มีนวัตกรรมน้อยกว่ากำหนดระบอบกฎหมายของตนกับบริษัท AI ของอเมริกา และทำให้ความก้าวหน้าของเราช้าลง” จุดยืนนี้สะท้อนให้เห็นถึงความเชื่อของ OpenAI ว่าการเข้าถึงข้อมูลอย่างไม่จำกัดเป็นสิ่งสำคัญสำหรับการรักษาความได้เปรียบในการแข่งขันของสหรัฐฯ ในด้าน AI
ในทางกลับกัน Google เรียกร้องให้มี “กฎหมายลิขสิทธิ์ที่สมดุล” และกฎหมายความเป็นส่วนตัวที่ให้การยกเว้นสำหรับข้อมูลที่เปิดเผยต่อสาธารณะโดยอัตโนมัติ สิ่งนี้ชี้ให้เห็นถึงแนวทางที่ละเอียดยิ่งขึ้น โดยรับทราบถึงสิทธิ์ของผู้สร้าง ในขณะเดียวกันก็ตระหนักถึงความสำคัญของข้อมูลสำหรับการพัฒนา AI Google ยังเสนอให้มีการทบทวน “สิทธิบัตร AI ที่ได้รับมาโดยผิดพลาด” โดยเน้นย้ำถึงจำนวนสิทธิบัตร AI ของสหรัฐฯ ที่เพิ่มขึ้นซึ่งบริษัทจีนได้รับ
ขับเคลื่อนอนาคต: ความต้องการโครงสร้างพื้นฐานและพลังงาน
พลังการประมวลผลที่แท้จริงที่จำเป็นในการฝึกอบรมและใช้งานแบบจำลอง AI ขั้นสูงจำเป็นต้องมีการขยายโครงสร้างพื้นฐานและทรัพยากรพลังงานอย่างมีนัยสำคัญ OpenAI, Anthropic และ Google ต่างก็สนับสนุนการปรับปรุงกระบวนการอนุญาตสำหรับสายส่ง โดยมีเป้าหมายเพื่อเร่งการสร้างโครงสร้างพื้นฐานด้านพลังงานเพื่อรองรับศูนย์ข้อมูล AI ใหม่
Anthropic มีจุดยืนที่กล้าหาญเป็นพิเศษ โดยเรียกร้องให้มีพลังงานเพิ่มเติม 50 กิกะวัตต์ในสหรัฐฯ เฉพาะ สำหรับการใช้งาน AI ภายในปี 2027 สิ่งนี้เน้นย้ำถึงความต้องการพลังงานมหาศาลของภูมิทัศน์ AI ที่พัฒนาอย่างรวดเร็ว และศักยภาพของ AI ที่จะกลายเป็นตัวขับเคลื่อนหลักของการใช้พลังงาน
ความปลอดภัย การนำไปใช้ของรัฐบาล และรัฐที่ขับเคลื่อนด้วย AI
การยื่นข้อเสนอ (submissions) ยังเจาะลึกถึงจุดตัดของ AI ความมั่นคงของชาติ และการดำเนินงานของรัฐบาล OpenAI เสนอให้เร่งการอนุมัติด้านความปลอดภัยทางไซเบอร์สำหรับเครื่องมือ AI ชั้นนำ ทำให้หน่วยงานภาครัฐสามารถทดสอบและปรับใช้เครื่องมือเหล่านั้นได้ง่ายขึ้น นอกจากนี้ยังแนะนำความร่วมมือระหว่างภาครัฐและเอกชนเพื่อพัฒนาแบบจำลอง AI ที่เน้นความมั่นคงของชาติ ซึ่งอาจไม่มีตลาดเชิงพาณิชย์ที่เป็นไปได้ เช่น แบบจำลองที่ออกแบบมาสำหรับงานนิวเคลียร์ที่เป็นความลับ
Anthropic สะท้อนการเรียกร้องให้มีขั้นตอนการจัดซื้อที่รวดเร็วยิ่งขึ้นเพื่อรวม AI เข้ากับหน้าที่ของรัฐบาล โดยเฉพาะอย่างยิ่ง Anthropic ยังเน้นย้ำถึงความสำคัญของบทบาทการประเมินความปลอดภัยที่แข็งแกร่งสำหรับ National Institute of Standards and Technology (NIST) และ U.S. AI Safety Institute
Google แย้งว่าหน่วยงานความมั่นคงแห่งชาติควรได้รับอนุญาตให้ใช้ทรัพยากรการจัดเก็บและการประมวลผลเชิงพาณิชย์สำหรับความต้องการด้าน AI ของตน นอกจากนี้ยังสนับสนุนให้รัฐบาลเปิดเผยชุดข้อมูลสำหรับการฝึกอบรม AI เชิงพาณิชย์ และกำหนดมาตรฐานข้อมูลแบบเปิดและ API ในการปรับใช้ระบบคลาวด์ของรัฐบาลต่างๆ เพื่ออำนวยความสะดวกใน “ข้อมูลเชิงลึกที่ขับเคลื่อนด้วย AI”
ผลกระทบต่อสังคม: ตลาดแรงงานและการเปลี่ยนแปลงที่ขับเคลื่อนด้วย AI
สุดท้าย การยื่นข้อเสนอ (submissions) ได้กล่าวถึงผลกระทบทางสังคมในวงกว้างของ AI โดยเฉพาะอย่างยิ่งผลกระทบที่อาจเกิดขึ้นกับตลาดแรงงาน Anthropic เรียกร้องให้ฝ่ายบริหารติดตามแนวโน้มตลาดแรงงานอย่างใกล้ชิดและเตรียมพร้อมสำหรับการหยุดชะงักที่สำคัญ Google ก็รับทราบเช่นเดียวกันว่าการเปลี่ยนแปลงกำลังจะเกิดขึ้น โดยเน้นย้ำถึงความจำเป็นในการพัฒนาทักษะ AI ในวงกว้าง Google ยังขอเงินทุนเพิ่มสำหรับการวิจัย AI และนโยบายเพื่อให้แน่ใจว่านักวิจัยของสหรัฐฯ สามารถเข้าถึงพลังการประมวลผล ข้อมูล และแบบจำลองได้อย่างเพียงพอ
โดยสรุปแล้ว การยื่นข้อเสนอต่อ “AI Action Plan” แสดงให้เห็นภาพของอุตสาหกรรมในช่วงเวลาสำคัญ แม้ว่าจะมีความทะเยอทะยานร่วมกันในการพัฒนาเทคโนโลยี AI แต่บริษัทชั้นนำของสหรัฐฯ ก็มีมุมมองที่แตกต่างกันโดยพื้นฐานเกี่ยวกับวิธีการจัดการกับความท้าทายที่ซับซ้อนของกฎระเบียบ การแข่งขันระหว่างประเทศ และผลกระทบต่อสังคม เดือนและปีต่อๆ ไปจะเปิดเผยว่าวิสัยทัศน์ที่แตกต่างกันเหล่านี้จะกำหนดอนาคตของ AI อย่างไร ไม่เพียงแต่ในสหรัฐอเมริกาเท่านั้น แต่ยังรวมถึงทั่วโลกด้วย