Llama 2 AI กับการลดขนาดหน่วยงานรัฐ

An unexpected revelation indicates that the Department of Government Efficiency’s highly scrutinized initiatives to streamline the federal workforce utilized an older Meta AI model, specifically Llama 2, rather than Elon Musk’s own AI creation, Grok.

“Fork in the Road” Memo และบทบาทของ Llama 2

According to a review conducted by Wired, affiliates of Elon Musk’s DOGE (Department of Government Efficiency), operating within the Office of Personnel Management, engaged Meta’s Llama 2 model to meticulously analyze and categorize responses from federal employees to the controversial “Fork in the Road” email dispatched across the government in late January.

The “Fork in the Road” memo, strikingly similar to a previous communication Musk had sent to Twitter employees, presented federal workers with a choice: demonstrate "loyalty" by accepting the government’s revised return-to-office policy, or opt to resign. At the time, circulating rumors suggested that DOGE was leveraging AI to process government employee data. Confirmation has since emerged, substantiating the use of Llama 2 to sift through employee responses and quantify the number of resignations.

อดีตที่ถกเถียงของ Llama 2: การใช้งานทางทหารและการตอบสนองของ Meta

ประวัติของ Llama 2 ไม่ได้ปราศจากข้อโต้แย้ง ที่สำคัญในเดือนพฤศจิกายน นักวิจัยชาวจีนได้ใช้ Llama 2 เป็นรากฐานสำหรับโมเดล AI ที่กองทัพจีนใช้ การเปิดเผยนี้จุดประกายให้เกิดการตอบโต้ ทำให้ Meta เริ่มแรกประณามการพึ่งพา "ที่ไม่ได้รับอนุญาต" ของนักวิจัยในโมเดล "เดียว" และ "ล้าสมัย" อย่างไรก็ตาม Meta กลับนโยบายห้ามการใช้งานทางทหารและขยายการเข้าถึงโมเดล AI สำหรับวัตถุประสงค์ด้านความมั่นคงแห่งชาติของสหรัฐฯ

Meta ประกาศอย่างเปิดเผยถึงความมุ่งมั่นที่จะทำให้ Llama เข้าถึงได้สำหรับหน่วยงานรัฐบาลสหรัฐฯ รวมถึงหน่วยงานที่เกี่ยวข้องกับการป้องกันประเทศและความมั่นคงแห่งชาติ ตลอดจนพันธมิตรในภาคเอกชนที่สนับสนุนความพยายามของพวกเขา พวกเขาประกาศความร่วมมือกับบริษัทต่างๆ เช่น Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI และ Snowflake เพื่ออำนวยความสะดวกในการใช้งาน Llama ทั่วทั้งหน่วยงานราชการ

Wired ชี้ให้เห็นว่าลักษณะโอเพนซอร์สของโมเดล Meta ช่วยให้รัฐบาลสามารถใช้งานได้อย่างง่ายดายเพื่อสนับสนุนวัตถุประสงค์ของ Musk โดยอาจไม่ได้รับความยินยอมจากบริษัทอย่างชัดเจน การระบุขอบเขตของการใช้งานโมเดล Meta ภายในรัฐบาลยังคงเป็นสิ่งที่ท้าทาย เหตุผลเบื้องหลัง DOGE ที่พึ่งพา Llama 2 โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงความก้าวหน้าของ Meta ด้วย Llama 3 และ 4 นั้นยังไม่ชัดเจน

ความรู้อย่างจำกัดเกี่ยวกับการใช้ Llama 2 ของ DOGE

รายละเอียดเกี่ยวกับการใช้งาน Llama 2 ที่เฉพาะเจาะจงของ DOGE ยังคงมีอยู่น้อย การตรวจสอบของ Wired เผยให้เห็นว่า DOGE ได้ปรับใช้โมเดลในเครื่อง ซึ่งบ่งชี้ว่าข้อมูลไม่น่าจะถูกส่งผ่านทางอินเทอร์เน็ต ซึ่งช่วยลดความกังวลด้านความเป็นส่วนตัวที่พนักงานของรัฐหลายคนแสดงออกมา

ข้อกังวลของสภาคองเกรสและการเรียกร้องให้มีการสอบสวน

ในจดหมายเดือนเมษายนที่ส่งถึง Russell Vought ผู้อำนวยการ Office of Management and Budget สมาชิกสภานิติบัญญัติกว่า 40 คนเรียกร้องให้มีการสอบสวนอย่างละเอียดเกี่ยวกับการใช้ AI ของ DOGE พวกเขาแสดงความกังวลว่าการใช้งานดังกล่าว ควบคู่ไปกับความเสี่ยงด้านความปลอดภัยที่อาจเกิดขึ้น อาจบ่อนทำลายการยอมรับ AI ที่ประสบความสำเร็จและเหมาะสมภายในรัฐบาล

จดหมายดังกล่าวอ้างถึงเจ้าหน้าที่ของ DOGE และอดีตพนักงานของ SpaceX ที่ถูกกล่าวหาว่าใช้โมเดล xAI Grok-2 ของ Musk เพื่อพัฒนา "ผู้ช่วย AI" นอกจากนี้ยังกล่าวถึงการใช้แชทบอทชื่อ "GSAi" ซึ่งอิงตามโมเดล Anthropic และ Meta เพื่อวิเคราะห์ข้อมูลสัญญาและการจัดซื้อจัดจ้าง นอกจากนี้ DOGE ยังเชื่อมโยงกับซอฟต์แวร์ที่เรียกว่า AutoRIF ซึ่งถูกกล่าวหาว่าออกแบบมาเพื่อเร่งการเลิกจ้างจำนวนมากทั่วทั้งรัฐบาล

สมาชิกสภานิติบัญญัติเน้นย้ำถึง "ข้อกังวลที่สำคัญเกี่ยวกับความปลอดภัย" เกี่ยวกับการใช้ "ระบบ AI ของ DOGE เพื่อวิเคราะห์อีเมลจากพนักงานของรัฐจำนวนมากถึงสองล้านคนซึ่งอธิบายถึงความสำเร็จในสัปดาห์ก่อนหน้า" โดยอ้างถึงการขาดความโปร่งใส

อีเมลเหล่านี้ตามมาด้วยอีเมล "Fork in the Road" กระตุ้นให้คนงานสรุปความสำเร็จรายสัปดาห์ในห้ารายการ พนักงานแสดงความกังวลเกี่ยวกับลักษณะของการตอบสนอง โดยกลัวว่า DOGE อาจขอข้อมูลที่ละเอียดอ่อนโดยไม่มีการรักษาความปลอดภัยที่เหมาะสม

Wired ไม่สามารถยืนยันได้อย่างแน่ชัดว่า Llama 2 ถูกใช้เพื่อแยกวิเคราะห์การตอบกลับทางอีเมลเหล่านี้ด้วยเช่นกัน อย่างไรก็ตาม พนักงานของรัฐแนะนำกับ Wired ว่า DOGE น่าจะ "นำโค้ดของพวกเขาจาก" การทดลองอีเมล "Fork in the Road" กลับมาใช้ใหม่ หากเป็นการตัดสินใจที่รอบคอบ

เหตุใดจึงไม่ได้ใช้ Grok

คำถามเกิดขึ้นว่าทำไม DOGE ไม่ได้ใช้ Grok

คำอธิบายที่เป็นไปได้มากที่สุดคือ Grok ซึ่งเป็นโมเดลที่เป็นกรรมสิทธิ์ในขณะนั้น ไม่พร้อมใช้งานสำหรับงานของ DOGE ในเดือนมกราคม จากข้อมูลของ Wired DOGE อาจเพิ่มการพึ่งพา Grok มากขึ้นในอนาคต โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงการประกาศของ Microsoft ว่าจะเริ่มโฮสต์โมเดล Grok 3 ของ xAI ใน Azure AI Foundry ในสัปดาห์นี้ ซึ่งจะขยายการใช้งานโมเดลที่เป็นไปได้

ข้อกังวลของสมาชิกสภานิติบัญญัติ: ความขัดแย้งทางผลประโยชน์และการละเมิดข้อมูล

ในจดหมาย สมาชิกสภานิติบัญญัติเรียกร้องให้ Vought ตรวจสอบความขัดแย้งทางผลประโยชน์ที่อาจเกิดขึ้นที่เกี่ยวข้องกับ Musk ในขณะเดียวกันก็เตือนถึงการละเมิดข้อมูลที่อาจเกิดขึ้น พวกเขายืนยันว่า AI ที่ DOGE ใช้ยังไม่เหมาะสำหรับการใช้งานของรัฐบาล

พวกเขาแย้งว่า "หากไม่มีการป้องกันที่เหมาะสม การป้อนข้อมูลที่ละเอียดอ่อนลงในระบบ AI จะทำให้ข้อมูลนั้นอยู่ในความครอบครองของผู้ดำเนินการระบบ ซึ่งเป็นการละเมิดความไว้วางใจของสาธารณชนและพนักงานอย่างใหญ่หลวง และเพิ่มความเสี่ยงด้านความปลอดภัยทางไซเบอร์ที่เกี่ยวข้องกับข้อมูลนั้น" พวกเขากล่าวเพิ่มเติมว่า "โมเดล generative AI ยังมักจะทำผิดพลาดและแสดงอคติอย่างมาก เทคโนโลยีนี้ยังไม่พร้อมสำหรับการใช้งานในการตัดสินใจที่มีความเสี่ยงสูงหากไม่มีการตรวจสอบ ความโปร่งใส การกำกับดูแล และการป้องกันที่เหมาะสม"

แม้ว่ารายงานของ Wired จะชี้ให้เห็นว่า DOGE ไม่ได้ส่งข้อมูลที่ละเอียดอ่อนจากอีเมล "Fork in the Road" ไปยังแหล่งภายนอก แต่สมาชิกสภานิติบัญญัติกำลังเรียกร้องให้มีการตรวจสอบระบบ AI ที่แข็งแกร่งยิ่งขึ้นเพื่อลด "ความเสี่ยงในการแบ่งปันข้อมูลที่สามารถระบุตัวบุคคลได้หรือข้อมูลที่ละเอียดอ่อนอย่างอื่นกับผู้ปรับใช้โมเดล AI "

ข้อกังวลหลักคือ Musk อาจใช้ประโยชน์จากโมเดลของตนเองมากขึ้นเรื่อยๆ ซึ่งอาจได้รับประโยชน์จากข้อมูลของรัฐบาลที่คู่แข่งของเขาไม่สามารถเข้าถึงได้ ในขณะเดียวกันก็เปิดเผยข้อมูลนั้นต่อความเสี่ยงในการละเมิด สมาชิกสภานิติบัญญัติหวังว่า DOGE จะถูกบังคับให้ยุติระบบ AI ของตน อย่างไรก็ตาม Vought ดูเหมือนจะสอดคล้องกับแนวทางของ DOGE มากกว่า ดังที่เห็นได้จากคำแนะนำ AI ของเขาสำหรับการใช้งานของรัฐบาลกลาง ซึ่งกระตุ้นให้หน่วยงานต่างๆ "ขจัดอุปสรรคต่อการสร้างสรรค์นวัตกรรมและให้คุณค่าที่ดีที่สุดแก่ผู้เสียภาษี"

จดหมายของสมาชิกสภานิติบัญญัติเน้นว่า "ในขณะที่เราสนับสนุนให้รัฐบาลกลางบูรณาการเทคโนโลยี AI ที่ได้รับการอนุมัติใหม่ๆ ที่สามารถปรับปรุงประสิทธิภาพหรือประสิทธิผล เราไม่สามารถเสียสละความปลอดภัย ความเป็นส่วนตัว และมาตรฐานการใช้งานที่เหมาะสมเมื่อโต้ตอบกับข้อมูลของรัฐบาลกลางได้" พวกเขายังระบุด้วยว่า "เราไม่สามารถยอมรับการใช้ระบบ AI ซึ่งมักเป็นที่รู้จักกันดีในด้านภาพหลอนและอคติ ในการตัดสินใจเกี่ยวกับการเลิกจ้างการจ้างงานของรัฐบาลกลางหรือเงินทุนของรัฐบาลกลางโดยไม่มีความโปร่งใสและการกำกับดูแลที่เพียงพอของ mô hình เหล่านั้น ความเสี่ยงในการสูญเสียพรสวรรค์และการวิจัยที่สำคัญเนื่องจากเทคโนโลยีที่มีข้อบกพร่องหรือการใช้งานเทคโนโลยีดังกล่าวที่มีข้อบกพร่องนั้นสูงเกินไป"

เจาะลึกถึงผลกระทบของการใช้ AI ในโครงการเพิ่มประสิทธิภาพภาครัฐ

มหากาพย์ที่คลี่คลายเกี่ยวกับการใช้ปัญญาประดิษฐ์ของ Department of Government Efficiency (DOGE) ในความพยายามในการปรับปรุงการดำเนินงานได้จุดประกายให้เกิดพายุแห่งการถกเถียงและการตรวจสอบ การเปิดเผยว่าหน่วยงานพึ่งพาโมเดล Llama 2 ของ Meta ซึ่งเป็น AI โอเพนซอร์ส แทนที่จะเป็น Grok AI ที่เป็นกรรมสิทธิ์ของ Elon Musk ได้เพิ่มความซับซ้อนให้กับเรื่องราวที่ซับซ้อนอยู่แล้ว สถานการณ์นี้สมควรที่จะเจาะลึกลงไปในผลกระทบหลายด้านของการบูรณาการ AI เข้ากับปฏิบัติการของรัฐบาล การตรวจสอบผลประโยชน์และความเสี่ยงโดยธรรมชาติ ข้อพิจารณาด้านจริยธรรม และศักยภาพสำหรับความขัดแย้งทางผลประโยชน์

เสน่ห์และหลุมพรางของ AI ในภาครัฐ

การบูรณาการ AI เข้ากับหน้าที่ของรัฐบาลสัญญาว่าจะมีความก้าวหน้าในการเปลี่ยนแปลงประสิทธิภาพ การวิเคราะห์ข้อมูล และการตัดสินใจ ตั้งแต่การทำงานประจำโดยอัตโนมัติไปจนถึงการคัดกรองชุดข้อมูลขนาดใหญ่ AI มีศักยภาพในการปลดล็อกระดับผลิตภาพที่ไม่เคยมีมาก่อนและปรับปรุงการส่งมอบบริการสาธารณะ ลองนึกภาพอัลกอริทึมที่สามารถทำนายความล้มเหลวของโครงสร้างพื้นฐาน ปรับการศึกษาให้เป็นแบบส่วนตัว หรือเพิ่มประสิทธิภาพการจัดสรรทรัพยากรในความพยายามในการบรรเทาสาธารณภัย ความเป็นไปได้ดูเหมือนไม่มีที่สิ้นสุด

อย่างไรก็ตาม การปฏิวัติทางเทคโนโลยีนี้ไม่ได้ปราศจากอันตราย การพึ่งพาระบบ AI ก่อให้เกิดเครือข่ายที่ซับซ้อนของภาวะที่กลืนไม่เข้าคายไม่ออกทางจริยธรรม ช่องโหว่ด้านความปลอดภัย และอคติที่อาจเกิดขึ้น รูปแบบ AI ได้รับการฝึกฝนบนข้อมูล และหากข้อมูลนั้นสะท้อนถึงอคติทางสังคม AI จะคงอยู่และขยายอคติเหล่านั้น สิ่งนี้ก่อให้เกิดภัยคุกคามที่สำคัญต่อความเป็นธรรมและความเท่าเทียมกันในบริการของรัฐบาล ซึ่งอาจนำไปสู่ผลลัพธ์ที่เป็นการเลือกปฏิบัติในด้านต่างๆ เช่น การบังคับใช้กฎหมาย สวัสดิการสังคม และการศึกษา

นอกจากนี้ การใช้ AI ยังก่อให้เกิดคำถามที่ลึกซึ้งเกี่ยวกับความโปร่งใสและความรับผิดชอบ เมื่อการตัดสินใจทำโดยอัลกอริทึม การทำความเข้าใจเหตุผลเบื้องหลังการตัดสินใจเหล่านั้นกลายเป็นเรื่องท้าทาย ทำให้ยากที่จะให้หน่วยงานของรัฐรับผิดชอบต่อการกระทำของพวกเขา

ปริศนา Llama 2 กับ Grok

ทางเลือกของ Llama 2 เหนือ Grok นำมาซึ่งข้อพิจารณาของตัวเอง ลักษณะโอเพนซอร์สของ Llama 2 ทำให้เข้าถึงได้และปรับแต่งได้ง่าย ช่วยให้หน่วยงานของรัฐปรับให้เข้ากับความต้องการเฉพาะของตนได้โดยไม่ต้องถูกล็อกอยู่ในระบบนิเวศที่เป็นกรรมสิทธิ์ อย่างไรก็ตาม สิ่งนี้ยังหมายความว่าขาดการสนับสนุนและการบำรุงรักษาเฉพาะที่โดยทั่วไปมาพร้อมกับโซลูชัน AI ที่เป็นกรรมสิทธิ์

ในทางกลับกัน Grok ในฐานะ AI ที่เป็นกรรมสิทธิ์ สัญญาว่าจะให้ประสิทธิภาพที่ทันสมัยและความเชี่ยวชาญเฉพาะทาง อย่างไรก็ตาม สิ่งนี้ยังก่อให้เกิดความกังวลเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นจากการล็อกผู้ขาย ความเป็นส่วนตัวของข้อมูล และอคติที่เกิดจากข้อมูลการฝึกอบรมของ AI โดยเน้นให้เห็นถึงความกังวลเกี่ยวกับศักยภาพที่หน่วยงานเอกชนใดๆ โดยเฉพาะอย่างยิ่งหน่วยงานที่เกี่ยวข้องกับบุคคลที่มีชื่อเสียงซึ่งเชื่อมโยงอย่างใกล้ชิดกับเป้าหมายของรัฐบาล ในการใช้อิทธิพลที่ไม่สมควรต่อกระบวนการตัดสินใจ

ผีร้ายแห่งความขัดแย้งทางผลประโยชน์

การมีส่วนร่วมของหน่วยงาน (SpaceX และ xAI) ของ Elon Musk ในโครงการริเริ่ม AI ของรัฐบาลทำให้เกิดผีร้ายแห่งความขัดแย้งทางผลประโยชน์ ในฐานะบุคคลที่มีชื่อเสียงที่มีผลประโยชน์ในภาคส่วนต่างๆ การมีส่วนร่วมของ Musk ทำให้เกิดคำถามเกี่ยวกับอิทธิพลที่เขาอาจมีต่อการวางนโยบายของรัฐบาลและการมอบสัญญา

รัฐบาลจะให้การดูแลเป็นพิเศษแก่บริษัทของ Musk หรือไม่ มีการป้องกันที่เพียงพอเพื่อให้แน่ใจว่าการตัดสินใจทำอย่างเป็นกลางและเป็นไปเพื่อผลประโยชน์สูงสุดของประชาชนหรือไม่ เหล่านี้เป็นคำถามที่ถูกต้องตามกฎหมายที่ต้องการการตรวจสอบอย่างเข้มงวด

ข้อกังวลด้านความปลอดภัยของข้อมูลและความเป็นส่วนตัว

การใช้ AI ในปฏิบัติการของรัฐบาลเกี่ยวข้องกับการรวบรวม จัดเก็บ และประมวลผลข้อมูลพลเมืองที่ละเอียดอ่อนอย่างหลีกเลี่ยงไม่ได้ สิ่งนี้สร้างเป้าหมายที่น่าดึงดูดสำหรับการโจมตีทางไซเบอร์และการละเมิดข้อมูล รัฐบาลต้องใช้มาตรการรักษาความปลอดภัยที่แข็งแกร่งเพื่อปกป้องข้อมูลนี้จากการเข้าถึงและการใช้งานโดยไม่ได้รับอนุญาต ซึ่งครอบคลุมไม่เพียงแต่การปกป้องข้อมูลจากภัยคุกคามภายนอกเท่านั้น แต่ยังรวมถึงการสร้างการควบคุมการเข้าถึงที่เข้มงวดและกลไกความรับผิดชอบเพื่อป้องกันการละเมิดจากภายใน

ความกังวลเกี่ยวกับความเป็นส่วนตัวของข้อมูลเพิ่มขึ้นจากลักษณะทึบแสงของอัลกอริทึม AI พลเมืองมักจะไม่รู้ว่าข้อมูลของตนถูกประมวลผลหรือใช้เพื่อตัดสินใจที่ส่งผลกระทบต่อชีวิตของพวกเขาอย่างไร การขาดความโปร่งใสนี้บ่อนทำลายความไว้วางใจในรัฐบาลและอาจนำไปสู่การต่อต้านโครงการริเริ่มที่ขับเคลื่อนด้วย AI

ผลกระทบต่ออนาคตของรัฐบาล

การถกเถียงเกี่ยวกับการใช้ AI ของ DOGE ไม่ได้เป็นเพียงเกี่ยวกับกรณีเฉพาะ แต่เกี่ยวกับอนาคตของรัฐบาลในยุคของปัญญาประดิษฐ์ รัฐบาลจะควบคุมพลังของ AI เพื่อปรับปรุงบริการสาธารณะในขณะที่ลดความเสี่ยงได้อย่างไร เราจะมั่นใจได้อย่างไรว่า AI ถูกใช้อย่างมีจริยธรรม โปร่งใส และมีความรับผิดชอบ

คำตอบสำหรับคำถามเหล่านี้ต้องการแนวทางหลายด้าน:

  • กำหนดแนวทางจริยธรรมที่ชัดเจน: ประมวลจริยธรรมที่ชัดเจนซึ่งควบคุมการใช้ AI ในภาครัฐ หลักการเหล่านี้ควรให้ความสำคัญกับความเป็นธรรม ความโปร่งใส ความรับผิดชอบ และความเคารพในความเป็นส่วนตัว

  • ส่งเสริมความโปร่งใสและการเปิดกว้าง: ทำให้ซอฟต์แวร์ AI และกระบวนการตัดสินใจมีความโปร่งใสมากขึ้น เผยแพร่รายงานที่อธิบายว่า AI ถูกใช้ในภาครัฐอย่างไร และจัดให้มีช่องทางให้ประชาชนแสดงความคิดเห็น

  • ปกป้องความปลอดภัยของข้อมูล: ใช้มาตรการรักษาความปลอดภัยที่แข็งแกร่งเพื่อปกป้องข้อมูลพลเมืองที่ละเอียดอ่อนจากภัยคุกคามทางไซเบอร์และการละเมิดจากภายใน

  • รับรองความรับผิดชอบ: สร้างสายการบังคับบัญชาที่ชัดเจนสำหรับการตัดสินใจที่ขับเคลื่อนด้วย AI กำหนดเจ้าหน้าที่ของรัฐที่รับผิดชอบในการดูแลการใช้ AI และแก้ไขปัญหาที่อาจเกิดขึ้น

  • ปลูกฝังความไว้วางใจของสาธารณชน: ให้ความรู้แก่สาธารณชนเกี่ยวกับประโยชน์และความเสี่ยงของ AI ในภาครัฐ มีส่วนร่วมกับประชาชนเพื่อแก้ไขข้อกังวลของพวกเขาและสร้างความไว้วางใจในการใช้เทคโนโลยีนี้อย่างมีความรับผิดชอบ

ด้วยการยอมรับแนวทางเชิงรุกและรอบคอบ รัฐบาลสามารถควบคุมพลังการเปลี่ยนแปลงของ AI ในขณะที่ปกป้องผลประโยชน์สาธารณะ ข้อโต้แย้ง DOGE ทำหน้าที่เป็นเครื่องเตือนใจที่มีคุณค่าถึงความสำคัญของการวางแผนอย่างรอบคอบ การเปิดใจสนทนา และความมุ่งมั่นต่อหลักการทางจริยธรรมในยุคของปัญญาประดิษฐ์

เรื่องราวที่คลี่คลาย

The drama surrounding DOGE’s AI usage is far from over. As investigations continue and more details emerge, the incident will undoubtedly have repercussions for the future of AI deployment within the government. Hopefully, this situation will lead to more thoughtful integration of technology.