Musk, AI และการใช "ข้อผิดพลาดในการบริหาร" เป็นอาวุธ

การถอนตัวของ Elon Musk จากโครงการ Defense Operational Guidance Enhancement (DOGE) อาจดูเหมือนเป็นเหตุการณ์สำคัญ แต่ผลกระทบที่แท้จริงอยู่ที่ระดับที่ประชาชนยังคงเฝ้าระวัง เรื่องราวที่แท้จริงไม่ได้เป็นเพียงแค่เรื่องของการตัดงบประมาณหรือการแสดงละครของ Musk เท่านั้น แต่เป็นเรื่องของการบูรณาการโครงการทางอุดมการณ์อย่างลับๆ เข้าไปในระบบทางเทคนิคที่นำทางรัฐบาลสหรัฐฯ

ในเดือนกุมภาพันธ์ ฉันได้สรุปแนวคิดของ “การรัฐประหารโดย AI” ที่ Artificial Intelligence ทำหน้าที่เป็นเสมือนฉากและการให้เหตุผลมากกว่าเครื่องมือ Large Language Models (LLMs) ทำหน้าที่เป็นตัวสร้างข้ออ้าง ซึ่งเป็นเกราะกำบังที่สะดวกสำหรับการกระทำที่ไม่มีใครต้องการรับผิดชอบ Elon Musk มีบทบาทคล้ายกัน โดยเบี่ยงเบนความสนใจของประชาชนด้วยการแสดงที่น่าตื่นเต้นในขณะที่ดำเนินการเปลี่ยนแปลงที่รุนแรง

ตัวอย่างที่ร้ายแรงที่สุดอย่างหนึ่งคือการตัดเงินทุนของโครงการที่ป้องกันการเสียชีวิตจากโรคเอดส์ 26 ล้านราย ซึ่งรวมถึงเด็กๆ ด้วย เจ้าหน้าที่ที่ได้รับการเลือกตั้งส่วนใหญ่เพิกเฉยต่อปัญหา โดยแสร้งทำเป็นว่าทำอะไรไม่ได้

การแสดงตลกที่ขัดแย้งของ Musk ทำหน้าที่เป็นฉากบังหน้าที่สะดวกสำหรับการรื้อถอนรัฐบาลกลางอย่างรุนแรง ในขณะที่สิ่งนี้จุดประกายการเคลื่อนไหวประท้วงระดับรากหญ้าและส่งผลเสียต่อยอดขายของ Tesla แต่กลับบดบังปัญหาที่ลึกกว่าของการบูรณาการ AI

ในขณะที่ Musk และ Trump ได้ส่งเสริมการตัดงบประมาณที่ขับเคลื่อนด้วยอุดมการณ์ของ DOGE การวิเคราะห์ใน The Atlantic เปิดเผยว่าค่าใช้จ่ายของรัฐบาลกลางโดยรวมกลับเพิ่มขึ้น การเปลี่ยนแปลงรัฐบาลกลางโดย AI ซึ่งได้รับการยกย่องว่าเป็นวิธีการ “เพิ่มประสิทธิภาพของรัฐบาล” ยังคงดำเนินต่อไปโดยไม่ได้รับความสนใจ DOGE ใช้ Llama 2 เพื่อตรวจสอบและจัดประเภทอีเมลจากพนักงานของรัฐบาลกลาง แต่สัญญา 113 ล้านดอลลาร์ของ Palantir เพื่อสร้างโครงสร้างพื้นฐานการเฝ้าระวังพลเรือนขนาดใหญ่เน้นย้ำถึงแนวโน้มที่น่ากังวล บริษัทกำลังรวม Grok language model ของ Musk เข้าไปในแพลตฟอร์มด้วย

ข้อผิดพลาดในการเขียนโปรแกรม

Grok ของ xAI ภายใต้การควบคุมโดยตรงของ Musk เป็นตัวอย่างที่น่ากังวล โมเดลนี้ตอบคำถามที่ไม่เป็นอันตรายด้วยความคิดเห็นที่ส่งเสริมความเป็นจริงของการฆ่าล้างเผ่าพันธุ์คนผิวขาวในแอฟริกาใต้ การจัดการพรอมต์ระบบที่ซ่อนอยู่ของโมเดลนี้เผยให้เห็นถึงความพยายามอย่างเงอะงะในการสร้างวิศวกรรมทางสังคม ต่อมาพบว่าโมเดลนี้มีส่วนร่วมในการปฏิเสธการฆ่าล้างเผ่าพันธุ์ ซึ่ง xAI อ้างว่าเป็น “ข้อผิดพลาดในการเขียนโปรแกรม”

xAI ตอบสนองต่อเหตุการณ์ “การฆ่าล้างเผ่าพันธุ์คนผิวขาว” โดยระบุว่าการแก้ไขพรอมต์ละเมิดนโยบายภายใน พวกเขากล่าวเสริมว่าการเปลี่ยนแปลงพรอมต์ระบบในอนาคตจะได้รับการตรวจสอบ

เหตุการณ์เหล่านี้เน้นย้ำถึงความเสี่ยงโดยธรรมชาติของพรอมต์ระบบ สามารถแก้ไขได้โดยทุกคนที่ควบคุมโมเดลและจะได้รับการตรวจสอบเมื่อตรวจพบเท่านั้น การพึ่งพารูปแบบ AI ขององค์กรในการตัดสินใจของรัฐบาลทำให้ผู้มีอำนาจในเทคโนโลยีมีอำนาจทางการเมืองอย่างมหาศาล

โดยทั่วไป การนำเทคโนโลยีมาใช้ในรัฐบาลเกี่ยวข้องกับการพิจารณาอย่างรอบคอบและการตรวจสอบความปลอดภัย การดำเนินการของ DOGE ขาดการกำกับดูแลที่เหมาะสม ทำให้เกิดความกังวลเกี่ยวกับความเป็นอิสระของการตรวจสอบใดๆ โดยการรวมข้อมูลหน่วยงานเข้ากับแบบจำลองที่เป็นเอกภาพ DOGE ล้มเหลวในการพิจารณาความต้องการด้านความปลอดภัยเฉพาะของแต่ละหน่วยงาน โดยพื้นฐานแล้ว DOGE กำลังดำเนินการเปลี่ยนแปลงที่พลิกผันโดยไม่ได้ประเมินความจำเป็น ความเพียงพอ หรือประโยชน์ต่อประชาชน

หากคณะบริหารของ Trump ใส่ใจในการสร้างระบบที่เชื่อถือได้อย่างแท้จริง การกระทำของพวกเขาจะสะท้อนให้เห็นถึงสิ่งนั้น แต่ DOGE และคณะบริหารของ Trump ได้ขัดขวางการกำกับดูแลเกี่ยวกับอคติในรูปแบบ AI ขององค์กรและตัวอย่างการจัดการพรอมต์ระบบ หลังจากการตัดเงินทุนของ DOGE สำหรับการวิจัยอคติ AI ร่างกฎหมายใหม่ที่ผ่านโดย Congress จะห้ามกฎหมายใหม่ใดๆ เกี่ยวกับการกำกับดูแล AI ในอีกทศวรรษข้างหน้า

พนักงานที่ไม่ซื่อสัตย์

การจากไปของ Musk จาก DOGE ได้ทิ้งมรดกไว้เบื้องหลัง ซึ่งได้รับการเสริมด้วยการเลือก Palantir บริษัท AI ที่ก่อตั้งโดย Thiel ซึ่ง Musk เลือกไว้ Musk และ Thiel เป็นผู้ร่วมก่อตั้ง Paypal และ Thiel ได้แสดงความสงสัยเกี่ยวกับความเข้ากันได้ของเสรีภาพและประชาธิปไตย

การรวมศูนย์อำนาจที่ Musk ริเริ่มผ่าน DOGE จะคงอยู่ต่อไป โดยดำเนินการอย่างรอบคอบมากขึ้น ในขณะที่การจากไปของเขาถือเป็นชัยชนะสำหรับผู้ที่ต่อต้านเขา การทำงานของ DOGE ยังคงดำเนินต่อไปภายใต้การกำกับดูแลของข้าราชการที่ได้รับการว่าจ้างด้วยความภักดี

วัตถุประสงค์ที่แท้จริงของ DOGE ไม่ใช่เพื่อกำจัดของเสียของรัฐบาล แต่เพื่อทำให้ระบบราชการเป็นไปโดยอัตโนมัติโดยมีมาตรการความรับผิดชอบน้อยลง เป้าหมายของ “ประสิทธิภาพของรัฐบาล” นี้ยังคงไม่ได้กำหนดไว้อย่างชัดเจน การปรับปรุงรัฐบาลควรทำให้การโต้ตอบของประชาชนกับบริการและข้อมูลง่ายขึ้น แต่การเลิกจ้างกลับสร้างความติดขัดของระบบในขณะที่ลดทอนความเป็นส่วนตัว การตัดเงินทุนของ IRS ได้ก่อให้เกิดความกังวลเกี่ยวกับการตรวจสอบและการคืนเงิน ซึ่งอาจทำให้สูญเสียรายได้หลายพันล้าน

จุดประสงค์ของ DOGE ไม่ใช่เพื่อเพิ่มประสิทธิภาพระบบราชการ แต่เพื่อกำจัดองค์ประกอบที่เป็นมนุษย์ โดยให้ความสำคัญกับประสิทธิภาพสไตล์อุตสาหกรรม การจัดหมวดหมู่ประชาชนและการตั้งสมมติฐานการละเมิดระบบ จากนั้นสิทธิและสิทธิพิเศษจะได้รับหรือถูกปฏิเสธตามอคติที่ฝังอยู่ในระบบ AI

ผู้ที่ควบคุมคำจำกัดความและระบบอัตโนมัติของการตอบสนองต่อหมวดหมู่เหล่านี้มีอำนาจอย่างมาก โมเดลสะท้อนถึงการตัดสินใจของผู้ที่ฝึกฝน รวมถึงอคติที่ยอมรับได้และเป้าหมายการปรับปรุงประสิทธิภาพ ด้วยผู้ดูแลระบบปัจจุบันที่ใช้ร่องรอยอัลกอริทึม ระบบราชการจึงสูญเสียการเชื่อมต่อครั้งสุดท้ายกับมนุษยชาติ

ข้อผิดพลาดในการบริหาร

ระบบราชการและข้อผิดพลาดทางราชการไม่ใช่เรื่องใหม่ สิ่งที่ไม่เคยเกิดขึ้นมาก่อนคือการตัดขาดความรับผิดชอบของมนุษย์ต่อข้อผิดพลาด ส่งเสริมความไม่แยแสต่อการหลีกเลี่ยงข้อผิดพลาด

พิจารณารายงานสุขภาพของ Robert F. Kennedy Jr. ซึ่งมีข้อมูลอ้างอิงที่สร้างขึ้น เหตุการณ์นี้จะเป็นเรื่องอื้อฉาวในอดีต แต่ถูกยกเลิกเป็น “ข้อผิดพลาดในการจัดรูปแบบ” Kennedy ยอมรับนโยบายที่ไม่ได้รับการสนับสนุนจากหลักฐาน และการสร้างรายงานนี้โดย AI บ่งชี้ถึงการให้ความสำคัญกับการนำเสนอมากกว่าการสอบสวนทางวิทยาศาสตร์ที่ถูกต้องตามกฎหมาย การสร้างหลักฐานที่เป็นเท็จโดยอัตโนมัติเป็นเพียงวิธีหนึ่งที่ AI กลายเป็นเครื่องมือสำหรับการบริหาร

DOGE ดูเหมือนจะมุ่งเน้นไปที่การลงโทษผู้ที่ต่อต้าน Trump – ผู้อพยพ นักวิชาการ ชนกลุ่มน้อยทางเชื้อชาติ – และความพยายามที่หลากหลายของมันสร้างข้อผิดพลาดที่หลีกเลี่ยงไม่ได้ การเนรเทศ Kilmar Abrego Garcia ซึ่งมีสาเหตุมาจาก “ข้อผิดพลาดในการบริหาร” เป็นตัวอย่างที่ดี สิ่งนี้เป็นตัวอย่างของการใช้อาวุธจากความผิดพลาดโดยเจตนา

ท้ายที่สุด DOGE มีเป้าหมายที่จะสร้างระบบที่ผลลัพธ์ที่ขัดแย้งกันสามารถตำหนิ “ข้อผิดพลาดในการบริหาร” “ข้อผิดพลาดในการเขียนโปรแกรม” หรือ “ข้อผิดพลาดในการจัดรูปแบบ” คณะบริหารผลักดันความผิดไปที่เครื่องมือที่ผิดพลาด โดยปฏิเสธที่จะยอมรับความรับผิดชอบ ในกรณีของ Garcia คณะบริหารปฏิเสธที่จะแก้ไขข้อผิดพลาด สิ่งนี้แสดงให้เห็นถึงโลกแห่งระเบียบที่ไม่น่าเชื่อถือ ที่ซึ่งจะมีเพียงผู้ที่ให้คำมั่นสัญญาว่าจะจงรักภักดีเท่านั้นที่จะรอดพ้น

เรากำลังสร้างสภาพแวดล้อมที่เปราะบาง ที่ซึ่งชะตากรรมส่วนบุคคลขึ้นอยู่กับความต้องการของ AI และการเขียนโปรแกรมที่มองไม่เห็น จะเกิดอะไรขึ้นเมื่อโปรแกรม AI เหล่านี้เป็นเครื่องมือที่ทำให้เกิดความไม่มั่นคง ซึ่งรวมข้อมูลเข้ากับสถาปัตยกรรมของการเฝ้าระวังที่เป็นเอกภาพ

ในขณะที่การจากไปของ Musk จาก DOGE อาจกระตุ้นให้ความสนใจของสาธารณชนลดลง ปัญหาพื้นฐานยังคงอยู่: อคติของอัลกอริทึม การขาดความรับผิดชอบ และการกัดกร่อนของการกำกับดูแลของมนุษย์ แนวโน้มเหล่านี้ หากปล่อยไว้โดยไม่ตรวจสอบ อาจสร้างความเสียหายให้กับรากฐานของสังคมที่ยุติธรรมและเท่าเทียมกัน