เครือข่ายโฆษณาชวนเชื่อรัสเซียใช้ AI แชทบอทปล่อยข่าวปลอม

กลไกของ ‘LLM Grooming’

เครือข่าย Pravda ดำเนินการผ่านเว็บไซต์ข่าวปลอมประมาณ 150 แห่ง เว็บไซต์เหล่านี้ไม่ได้ออกแบบมาสำหรับการบริโภคของมนุษย์ ด้วยปริมาณการเข้าชมที่น้อยมาก หน้าส่วนใหญ่มีผู้เข้าชมน้อยกว่า 1,000 คนต่อเดือน วัตถุประสงค์หลักคือการป้อนเนื้อหาให้กับระบบ AI กลยุทธ์นี้แสดงถึงแนวทางใหม่ในการบิดเบือนข้อมูล ซึ่งก้าวข้ามวิธีการแบบเดิมๆ ที่กำหนดเป้าหมายไปยังผู้อ่านที่เป็นมนุษย์โดยตรง

กลวิธีนี้เรียกว่า ‘LLM grooming‘ ซึ่งเป็นคำที่อธิบายถึงการจงใจบิดเบือนข้อมูลการฝึกอบรม AI เครือข่ายบรรลุเป้าหมายนี้โดยการเผยแพร่เนื้อหาจำนวนมากที่ได้รับการปรับแต่งอย่างมากสำหรับเครื่องมือค้นหา (SEO) เพื่อให้แน่ใจว่าโฆษณาชวนเชื่อนั้นถูกนำเข้าและแจกจ่ายโดยแบบจำลอง AI ได้อย่างง่ายดาย มีอิทธิพลต่อผลลัพธ์และอาจกำหนดรูปแบบการรับรู้ของสาธารณชน

John Mark Dougan ชาวอเมริกันที่อาศัยอยู่ในมอสโกและถูกระบุโดย NewsGuard ว่าถูกกล่าวหาว่าสนับสนุนแคมเปญบิดเบือนข้อมูลของรัสเซีย อธิบายหลักการพื้นฐานในการประชุมท้องถิ่นว่า: ‘ยิ่งข้อมูลนี้มีความหลากหลายมากเท่าไหร่ ก็ยิ่งมีอิทธิพลต่อการฝึกอบรมและ AI ในอนาคตมากขึ้นเท่านั้น’ คำกล่าวนี้เน้นย้ำถึงลักษณะที่ร้ายกาจของการดำเนินการ โดยมีเป้าหมายที่จะทำลายข้อมูลพื้นฐานที่ระบบ AI สร้างขึ้นอย่างละเอียด

ขนาดและขอบเขตของการดำเนินงาน

ขนาดของกิจกรรมของเครือข่าย Pravda นั้นน่าตกตะลึง ในปี 2024 เพียงปีเดียว เว็บไซต์เหล่านี้เผยแพร่บทความประมาณ 3.6 ล้านบทความใน 49 ประเทศ ชื่อโดเมนได้รับการคัดเลือกอย่างมีกลยุทธ์เพื่อเลียนแบบแหล่งข่าวที่ถูกต้องตามกฎหมาย โดยมีตัวอย่างเช่น NATO.News-Pravda.com, Trump.News-Pravda.com และ Macron.News-Pravda.com การเลียนแบบนี้เพิ่มชั้นของการหลอกลวง ทำให้ผู้สังเกตการณ์ทั่วไปแยกแยะระหว่างเนื้อหาจริงและเนื้อหาที่สร้างขึ้นได้ยากขึ้น

เนื้อหาครอบคลุมหัวข้อที่หลากหลาย แต่ส่งเสริมการเล่าเรื่องที่สนับสนุนรัสเซียอย่างสม่ำเสมอและบ่อนทำลายมุมมองของตะวันตก เครือข่ายมีการใช้งานอย่างน้อยตั้งแต่เดือนเมษายน 2022 และการวิเคราะห์ของ NewsGuard มุ่งเน้นไปที่เรื่องราวเท็จที่ตรวจสอบได้ 15 เรื่องที่เผยแพร่โดยเครือข่าย Pravda ระหว่างช่วงเวลานั้นถึงกุมภาพันธ์ 2025

ช่องโหว่ของ AI Chatbots

การสืบสวนของ NewsGuard เกี่ยวข้องกับการทดสอบแชทบอท AI ที่โดดเด่นหลายตัวเพื่อประเมินความเสี่ยงต่อการบิดเบือนข้อมูลของเครือข่าย Pravda ระบบที่ทดสอบ ได้แก่:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity

ผลลัพธ์ที่ได้คือน่าเป็นห่วง แชทบอท AI ยอมรับเรื่องเล่าเท็จจากเครือข่าย Pravda ใน 33.5% ของกรณี ในขณะที่ระบบระบุเนื้อหาของรัสเซียว่าเป็นการบิดเบือนข้อมูลได้อย่างถูกต้องใน 48.2% ของกรณี แต่บางครั้งก็อ้างแหล่งที่ทำให้เข้าใจผิด ซึ่งอาจให้ความน่าเชื่อถือที่ไม่สมควรได้รับ อีก 18.2% ของคำตอบที่เหลือไม่สามารถสรุปได้ ซึ่งเน้นย้ำถึงความท้าทายในการแยกแยะความจริงออกจากความเท็จในยุคของเนื้อหาที่สร้างโดย AI

ความท้าทายในการต่อต้านการบิดเบือนข้อมูลที่ขับเคลื่อนด้วย AI

การต่อสู้กับการบิดเบือนประเภทนี้เป็นความท้าทายที่สำคัญ วิธีการแบบเดิมๆ ในการบล็อกเว็บไซต์บิดเบือนข้อมูลที่รู้จักกันดีนั้นพิสูจน์แล้วว่าไม่มีประสิทธิภาพ เมื่อเจ้าหน้าที่บล็อกโดเมน Pravda โดเมนใหม่จะปรากฏขึ้นอย่างรวดเร็ว แสดงให้เห็นถึงความคล่องตัวและความยืดหยุ่นของเครือข่าย

นอกจากนี้ การบิดเบือนข้อมูลยังไหลผ่านหลายช่องทางพร้อมกัน โดยมักจะมีไซต์เครือข่ายต่างๆ นำเนื้อหาของกันและกันกลับมาใช้ใหม่ สิ่งนี้สร้างเครือข่ายที่ซับซ้อนของแหล่งที่เชื่อมต่อถึงกัน ทำให้ยากต่อการแยกและทำให้โฆษณาชวนเชื่อเป็นกลางที่ต้นตอ การบล็อกเว็บไซต์เพียงอย่างเดียวให้การป้องกันที่จำกัดต่อแคมเปญที่กว้างขวางและมีการประสานงานกัน

บริบทที่กว้างขึ้น: การบิดเบือน AI ที่ได้รับการสนับสนุนจากรัฐ

กิจกรรมของเครือข่าย Pravda ไม่ใช่เหตุการณ์ที่เกิดขึ้นโดดเดี่ยว แต่สอดคล้องกับรูปแบบที่กว้างขึ้นของความพยายามที่ได้รับการสนับสนุนจากรัฐในการใช้ประโยชน์จาก AI เพื่อวัตถุประสงค์ในการบิดเบือนข้อมูล การศึกษาล่าสุดของ OpenAI เปิดเผยว่านักแสดงที่ได้รับการสนับสนุนจากรัฐจากรัสเซีย จีน อิหร่าน และอิสราเอลได้พยายามใช้ระบบ AI สำหรับแคมเปญโฆษณาชวนเชื่อแล้ว การดำเนินการเหล่านี้มักจะรวมเนื้อหาที่สร้างโดย AI เข้ากับเนื้อหาที่สร้างขึ้นด้วยตนเองแบบดั้งเดิม ทำให้เส้นแบ่งระหว่างข้อมูลจริงและข้อมูลที่ถูกบิดเบือนไม่ชัดเจน

การใช้ AI ในการบิดเบือนทางการเมืองไม่ได้จำกัดอยู่แค่ผู้มีบทบาทในรัฐ กลุ่มการเมือง เช่น พรรค AFD ขวาจัดของเยอรมนี ก็ถูกพบว่าใช้แบบจำลองภาพ AI เพื่อวัตถุประสงค์ในการโฆษณาชวนเชื่อ แม้แต่บุคคลอย่าง Donald Trump ก็มีส่วนร่วมกับเนื้อหาที่สร้างโดย AI ทั้งในฐานะผู้บริโภคและในทางตรงกันข้าม โดยการระบุข้อมูลจริงว่าเป็นของปลอมที่สร้างโดย AI กลวิธีนี้ซึ่งระบุว่าเป็นรูปแบบหนึ่งของการโฆษณาชวนเชื่อต่อต้าน หว่านความไม่ไว้วางใจในข้อมูลออนไลน์ทั้งหมด ซึ่งอาจผลักดันให้บุคคลพึ่งพาบุคคลที่เชื่อถือได้เท่านั้น โดยไม่คำนึงถึงความถูกต้องตามข้อเท็จจริง

แม้แต่การออกแบบแบบจำลอง AI เองก็สามารถได้รับอิทธิพลจากวาระของรัฐ แบบจำลอง AI ของจีน ตัวอย่างเช่น พบว่ามีการโหลดไว้ล่วงหน้าด้วยการเซ็นเซอร์และโฆษณาชวนเชื่อ ซึ่งสะท้อนถึงลำดับความสำคัญทางการเมืองของรัฐบาลจีน

เจาะลึก: ตัวอย่างเฉพาะของเรื่องเล่าเท็จ

แม้ว่ารายงานของ NewsGuard จะไม่ได้ให้รายละเอียดเรื่องเล่าเท็จทุกเรื่องที่เผยแพร่โดยเครือข่าย Pravda แต่วิธีการใช้เรื่องราวเท็จที่ตรวจสอบได้นั้นชี้ให้เห็นถึงรูปแบบของการเผยแพร่ข้อมูลที่ผิดซึ่งออกแบบมาเพื่อ:

  1. บ่อนทำลายสถาบันตะวันตก: เรื่องราวอาจแสดงให้เห็นอย่างผิดๆ ว่า NATO ก้าวร้าวหรือไม่มั่นคง หรือสร้างเรื่องอื้อฉาวที่เกี่ยวข้องกับผู้นำตะวันตก
  2. ส่งเสริมความรู้สึกโปร-รัสเซีย: เรื่องเล่าอาจเกินจริงความสำเร็จทางทหารของรัสเซีย ลดการละเมิดสิทธิมนุษยชน หรือให้เหตุผลในการกระทำบนเวทีโลก
  3. หว่านความขัดแย้งและการแบ่งแยก: เนื้อหาอาจมีจุดมุ่งหมายเพื่อทำให้ความตึงเครียดทางสังคมและการเมืองที่มีอยู่ภายในประเทศตะวันตกแย่ลง ขยายประเด็นที่แตกแยกและส่งเสริมการแบ่งขั้ว
  4. บิดเบือนความเป็นจริงเกี่ยวกับเหตุการณ์เฉพาะ: ข้อมูลเท็จอาจแพร่กระจายเกี่ยวกับเหตุการณ์ต่างๆ เช่น การเลือกตั้ง ความขัดแย้ง หรือเหตุการณ์ระหว่างประเทศ บิดเบือนเรื่องเล่าเพื่อสนับสนุนการตีความที่สนับสนุนรัสเซีย

ประเด็นที่สอดคล้องกันคือการบิดเบือนข้อมูลเพื่อตอบสนองวาระทางภูมิรัฐศาสตร์ที่เฉพาะเจาะจง การใช้ AI ขยายขอบเขตและผลกระทบที่อาจเกิดขึ้นจากเรื่องเล่าเหล่านี้ ทำให้ตรวจจับและตอบโต้ได้ยากขึ้น

ผลกระทบระยะยาว

ผลกระทบของการบิดเบือนข้อมูลที่ขับเคลื่อนด้วย AI นี้มีมากมาย การกัดเซาะความไว้วางใจในแหล่งข้อมูล ความเป็นไปได้ในการบิดเบือนความคิดเห็นของประชาชน และการบ่อนทำลายกระบวนการประชาธิปไตยล้วนเป็นข้อกังวลที่ร้ายแรง เมื่อระบบ AI ได้รับการบูรณาการเข้ากับชีวิตประจำวันของเรามากขึ้น ความสามารถในการแยกแยะระหว่างความจริงและความเท็จจึงมีความสำคัญมากขึ้น

เทคนิค ‘LLM grooming’ แสดงถึงการยกระดับที่สำคัญในภูมิทัศน์สงครามข้อมูล มันเน้นย้ำถึงความเปราะบางของระบบ AI ต่อการบิดเบือนและความจำเป็นในการป้องกันที่แข็งแกร่งต่อภัยคุกคามที่เกิดขึ้นใหม่นี้ ความท้าทายไม่ได้อยู่ที่การระบุและบล็อกแหล่งที่มาของการบิดเบือนข้อมูลเท่านั้น แต่ยังรวมถึงการพัฒนากลยุทธ์เพื่อปลูกฝังแบบจำลอง AI ต่อรูปแบบอิทธิพลที่ละเอียดอ่อนแต่แพร่หลายเหล่านี้ สิ่งนี้ต้องการแนวทางที่หลากหลาย ซึ่งรวมถึง:

  • การรู้เท่าทัน AI ที่เพิ่มขึ้น: ให้ความรู้แก่สาธารณชนเกี่ยวกับศักยภาพในการบิดเบือนข้อมูลที่สร้างโดย AI และส่งเสริมทักษะการคิดเชิงวิพากษ์
  • เครื่องมือตรวจจับ AI ที่ได้รับการปรับปรุง: พัฒนาวิธีการที่ซับซ้อนมากขึ้นสำหรับการระบุและตั้งค่าสถานะเนื้อหาและการบิดเบือนข้อมูลที่สร้างโดย AI
  • ข้อมูลการฝึกอบรม AI ที่แข็งแกร่งขึ้น: ใช้มาตรการเพื่อให้แน่ใจว่าข้อมูลการฝึกอบรม AI มีความสมบูรณ์และหลากหลาย ทำให้ทนทานต่อการบิดเบือนมากขึ้น
  • ความร่วมมือระหว่างประเทศ: ส่งเสริมความร่วมมือระหว่างรัฐบาล บริษัทเทคโนโลยี และนักวิจัยเพื่อจัดการกับความท้าทายระดับโลกนี้
  • ความโปร่งใสที่เพิ่มขึ้น: นักพัฒนา AI ควรมีความโปร่งใสเกี่ยวกับข้อมูลการฝึกอบรมที่ใช้และความลำเอียงที่อาจเกิดขึ้นภายในแบบจำลองของตน
  • ความรับผิดชอบของอัลกอริทึม: ถือให้นักพัฒนา AI รับผิดชอบต่อผลลัพธ์ของระบบของตน โดยเฉพาะอย่างยิ่งเมื่อผลลัพธ์เหล่านั้นถูกใช้เพื่อเผยแพร่ข้อมูลที่ผิด

การต่อสู้กับการบิดเบือนข้อมูลที่ขับเคลื่อนด้วย AI เป็นเรื่องที่ซับซ้อนและมีการพัฒนา มันต้องการความพยายามร่วมกันจากบุคคล องค์กร และรัฐบาลเพื่อปกป้องความสมบูรณ์ของข้อมูลและปกป้องรากฐานของการตัดสินใจอย่างมีข้อมูล กิจกรรมของเครือข่าย Pravda ทำหน้าที่เป็นเครื่องเตือนใจอย่างชัดเจนถึงเดิมพันที่เกี่ยวข้องและความเร่งด่วนในการจัดการกับภัยคุกคามที่เพิ่มขึ้นนี้ อนาคตของการอภิปรายสาธารณะที่มีข้อมูล และอาจรวมถึงความมั่นคงของสังคมประชาธิปไตย อาจขึ้นอยู่กับความสามารถของเราในการต่อต้านการบิดเบือนรูปแบบใหม่นี้ได้สำเร็จ ความท้าทายไม่ได้เป็นเพียงเทคโนโลยีเท่านั้น แต่ยังเป็นเรื่องของสังคมด้วย ซึ่งต้องการความมุ่งมั่นต่อความจริง ความถูกต้อง และการคิดเชิงวิพากษ์ในยุคดิจิทัล