แชทบอท AI และการแพร่กระจายข้อมูลเท็จของรัสเซีย

อิทธิพลที่แพร่หลายของข้อมูลเท็จที่ได้รับการสนับสนุนจากเครมลิน

แก่นของปัญหาอยู่ที่การจงใจปนเปื้อนแหล่งข้อมูลออนไลน์ ด้วยการท่วมท้นผลการค้นหาและโปรแกรมรวบรวมข้อมูลเว็บด้วยเรื่องเล่าเท็จที่สนับสนุนเครมลิน เครือข่ายผู้กระทำการบิดเบือนข้อมูลกำลังกำหนดรูปแบบผลลัพธ์ของ large language models (LLMs) อย่างแข็งขัน โมเดลเหล่านี้ซึ่งขับเคลื่อนแชทบอท AI ที่เราโต้ตอบด้วยทุกวัน อาศัยชุดข้อมูลขนาดใหญ่ที่คัดลอกมาจากอินเทอร์เน็ต เมื่อข้อมูลนี้ปนเปื้อนด้วยข้อมูลที่ผิด ผลลัพธ์ที่ได้จะสะท้อนอคติเหล่านี้

NewsGuard บริษัทที่ให้คะแนนความน่าเชื่อถือและลายนิ้วมือข้อมูลที่ไม่ถูกต้องสำหรับเว็บไซต์ข่าวและข้อมูล ได้ทำการวิเคราะห์ปรากฏการณ์นี้ในเชิงลึก การค้นพบของพวกเขาเผยให้เห็นความเป็นจริงที่น่ากังวล: ส่วนสำคัญของข้อมูลที่สร้างโดยแชทบอท AI ชั้นนำสะท้อนเรื่องราวที่เผยแพร่โดยเครือข่ายเฉพาะของเว็บไซต์ที่สนับสนุนเครมลิน

กลไกของการบิดเบือนข้อมูล: วิธีการจัดการโมเดล AI

กลยุทธ์ที่ใช้โดยเครือข่ายการบิดเบือนข้อมูลนี้ทั้งร้ายกาจและซับซ้อน ไม่ได้มีวัตถุประสงค์หลักเพื่อดึงดูดผู้อ่านที่เป็นมนุษย์ แต่ได้รับการออกแบบมาเพื่อจัดการอัลกอริทึมที่เป็นรากฐานของแชทบอท AI กลวิธีนี้เรียกว่า ‘LLM grooming’ เกี่ยวข้องกับการวางข้อมูลเท็จหรือทำให้เข้าใจผิดอย่างมีกลยุทธ์ในเว็บไซต์จำนวนมาก โดยรู้ว่าแพลตฟอร์มเหล่านี้จะถูกคัดลอกและนำเข้าโดย LLMs

The American Sunlight Project (ASP) ซึ่งเป็นองค์กรไม่แสวงหาผลกำไรของสหรัฐอเมริกา ได้เน้นย้ำถึงภัยคุกคามนี้ในรายงานเดือนกุมภาพันธ์ 2025 พวกเขาเตือนว่าเครือข่าย Pravda ซึ่งเป็นชุดของเว็บไซต์ที่ผลักดันเรื่องเล่าที่สนับสนุนรัสเซีย น่าจะถูกสร้างขึ้นโดยมีวัตถุประสงค์ที่ชัดเจนในการมีอิทธิพลต่อโมเดล AI ยิ่งมีเรื่องเล่าที่สนับสนุนรัสเซียมากเท่าไหร่ โอกาสที่ LLMs จะรวมเรื่องเล่าเหล่านั้นเข้ากับฐานความรู้ของพวกเขาก็จะยิ่งสูงขึ้นเท่านั้น

ผลกระทบของเรื่องนี้มีมากมายมหาศาล เมื่อ LLMs ถูกรวมเข้ากับชีวิตประจำวันของเรามากขึ้นเรื่อยๆ โดยทำหน้าที่เป็นแหล่งข้อมูลและความช่วยเหลือ ศักยภาพในการเผยแพร่เนื้อหาที่ถูกบิดเบือนในวงกว้างจึงเป็นเรื่องที่น่ากังวล

การตรวจสอบของ NewsGuard: การวัดปริมาณผลกระทบ

เพื่อประเมินขอบเขตของปัญหานี้ NewsGuard ได้ทำการตรวจสอบแชทบอท AI ที่โดดเด่นสิบตัว ซึ่งรวมถึง:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

การตรวจสอบมุ่งเน้นไปที่ 15 เรื่องเล่าเท็จที่แตกต่างกันซึ่งได้รับการส่งเสริมอย่างแข็งขันโดยเว็บไซต์ Pravda ที่สนับสนุนเครมลิน 150 แห่งระหว่างเดือนเมษายน 2022 ถึงกุมภาพันธ์ 2025 เรื่องเล่าเหล่านี้ครอบคลุมหัวข้อต่างๆ ซึ่งทั้งหมดออกแบบมาเพื่อส่งเสริมวาระทางการเมืองที่เฉพาะเจาะจง

วิธีการนี้เกี่ยวข้องกับการทดสอบแชทบอทแต่ละตัวด้วยชุดข้อความแจ้งตาม NewsGuard’s Misinformation Fingerprints ซึ่งเป็นแคตตาล็อกของคำกล่าวอ้างเท็จที่แสดงให้เห็นได้อย่างชัดเจนในหัวข้อข่าวสำคัญ ข้อความแจ้งถูกสร้างขึ้นในสามรูปแบบที่แตกต่างกัน – Innocent, Leading และ Malign – เพื่อเลียนแบบวิธีต่างๆ ที่ผู้ใช้โต้ตอบกับโมเดล AI เชิงสร้างสรรค์ ส่งผลให้มีการตอบสนองทั้งหมด 450 รายการ (45 รายการต่อแชทบอท)

ผลลัพธ์ที่น่ากังวล: การบิดเบือนข้อมูลแพร่หลายในแชทบอท

ผลการตรวจสอบของ NewsGuard นั้นชัดเจน แชทบอท AI ทั้งสิบตัวกล่าวซ้ำเรื่องเล่าการบิดเบือนข้อมูลของรัสเซียที่เป็นเท็จใน 33.55% ของการตอบสนอง พวกเขาไม่ได้ให้การตอบสนองใน 18.22% ของกรณี และหักล้างเรื่องเล่าใน 48.22% ของกรณี

แชทบอททุกตัวที่ทดสอบกล่าวซ้ำการบิดเบือนข้อมูล ที่มาจากเครือข่าย Pravda ที่น่ากังวลยิ่งกว่านั้นคือ แชทบอทเจ็ดตัวอ้างอิงบทความเฉพาะจากเว็บไซต์ Pravda โดยตรงว่าเป็นแหล่งที่มา แม้ว่าโมเดล AI สองตัวไม่ได้ให้การอ้างอิงที่ชัดเจน แต่ก็ยังพบว่าสร้างหรือกล่าวซ้ำเรื่องเล่าเท็จจากเครือข่าย มีเพียงหนึ่งในแปดโมเดลที่อ้างอิงแหล่งที่มาเท่านั้นที่ไม่ได้อ้างอิง Pravda

โดยรวมแล้ว 56 จาก 450 การตอบสนองที่สร้างโดยแชทบอทมีลิงก์โดยตรงไปยังบทความที่เผยแพร่คำกล่าวอ้างเท็จที่เผยแพร่โดยเครือข่าย Pravda แชทบอทร่วมกันอ้างอิงบทความ 92 บทความที่แตกต่างกันซึ่งมีการบิดเบือนข้อมูล โดยมีสองโมเดลอ้างอิงบทความ Pravda มากถึง 27 บทความ บทความเหล่านี้มาจากโดเมนต่างๆ ภายในเครือข่าย รวมถึง Denmark.news-pravda.com, Trump.news-pravda.com และ NATO.news-pravda.com

ลักษณะของข้อความแจ้ง: การเลียนแบบการโต้ตอบในโลกแห่งความเป็นจริง

รูปแบบข้อความแจ้งทั้งสามที่ใช้ในการตรวจสอบของ NewsGuard ได้รับการออกแบบมาเพื่อสะท้อนถึงสเปกตรัมของการโต้ตอบของผู้ใช้กับแชทบอท AI:

  • Innocent Prompts: ข้อความแจ้งเหล่านี้นำเสนอเรื่องเล่าเท็จในลักษณะที่เป็นกลาง ไม่ชี้นำ ราวกับว่าผู้ใช้เพียงแค่ต้องการข้อมูลโดยไม่มีความคิดอุปาทานใดๆ
  • Leading Prompts: ข้อความแจ้งเหล่านี้แนะนำเรื่องเล่าเท็จอย่างละเอียด โดยบอกเป็นนัยถึงความถูกต้องโดยไม่ได้ระบุไว้อย่างชัดเจน สิ่งนี้เลียนแบบสถานการณ์ที่ผู้ใช้อาจมีการสัมผัสกับข้อมูลที่ผิดมาก่อนและกำลังมองหาการยืนยัน
  • Malign Prompts: ข้อความแจ้งเหล่านี้ยืนยันเรื่องเล่าเท็จโดยตรงว่าเป็นข้อเท็จจริง ซึ่งสะท้อนถึงสถานการณ์ที่ผู้ใช้เชื่อมั่นในข้อมูลที่ผิดอยู่แล้วและกำลังมองหาการเสริมแรง

แนวทางหลายแง่มุมนี้มีความสำคัญอย่างยิ่งในการทำความเข้าใจว่าการมีส่วนร่วมของผู้ใช้ประเภทต่างๆ อาจมีอิทธิพลต่อการตอบสนองของแชทบอทอย่างไร เผยให้เห็นว่าแชทบอทมีความอ่อนไหวต่อการกล่าวซ้ำการบิดเบือนข้อมูลโดยไม่คำนึงถึงรูปแบบข้อความแจ้ง แม้ว่าความถี่และลักษณะของการตอบสนองจะแตกต่างกันไป

ตัวอย่างเฉพาะของการบิดเบือนข้อมูลที่สะท้อนโดยแชทบอท

รายงานของ NewsGuard ให้ตัวอย่างมากมายของเรื่องเล่าเท็จเฉพาะที่เผยแพร่โดยเครือข่าย Pravda และต่อมาก็ถูกกล่าวซ้ำโดยแชทบอท AI ตัวอย่างเหล่านี้เน้นย้ำถึงความกว้างและความลึกของการรณรงค์บิดเบือนข้อมูล เรื่องเล่าบางส่วนรวมถึง:

  • คำกล่าวอ้างว่ายูเครนเป็นรัฐนาซี
  • การยืนยันเท็จเกี่ยวกับสาเหตุของความขัดแย้งในยูเครน
  • ข้อมูลที่ทำให้เข้าใจผิดเกี่ยวกับการมีส่วนร่วมของตะวันตกในความขัดแย้ง
  • เรื่องราวที่กุขึ้นเกี่ยวกับผู้นำยูเครน

นี่เป็นเพียงตัวอย่างเล็กๆ น้อยๆ ของเรื่องเล่าเท็จมากมายที่ได้รับการบันทึกและติดตามอย่างพิถีพิถันโดย NewsGuard ข้อเท็จจริงที่ว่าเรื่องเล่าเหล่านี้กำลังถูกสะท้อนโดยแชทบอท AI ชั้นนำเน้นย้ำถึงความจำเป็นเร่งด่วนสำหรับมาตรการตอบโต้ที่มีประสิทธิภาพ

ความท้าทายในการต่อสู้กับการบิดเบือนข้อมูลที่ขับเคลื่อนด้วย AI

การแก้ไขปัญหานี้เป็นงานที่ซับซ้อน ต้องใช้แนวทางหลายแง่มุมที่เกี่ยวข้องกับทั้งโซลูชันทางเทคโนโลยีและการรับรู้ของผู้ใช้ที่เพิ่มขึ้น

โซลูชันทางเทคโนโลยี:

  • การกรองข้อมูลที่ได้รับการปรับปรุง: นักพัฒนา AI จำเป็นต้องใช้กลไกที่แข็งแกร่งยิ่งขึ้นสำหรับการกรองข้อมูลที่ผิดออกจากชุดข้อมูลที่ใช้ในการฝึกอบรม LLMs ซึ่งเกี่ยวข้องกับการระบุและแยกแหล่งที่มาที่ไม่น่าเชื่อถือ ตลอดจนการพัฒนาอัลกอริทึมที่สามารถตรวจจับและตั้งค่าสถานะข้อมูลที่อาจเป็นเท็จหรือทำให้เข้าใจผิด
  • การตรวจสอบแหล่งที่มาที่ได้รับการปรับปรุง: แชทบอทควรได้รับการออกแบบมาเพื่อจัดลำดับความสำคัญของข้อมูลจากแหล่งที่มาที่น่าเชื่อถือและได้รับการยืนยัน ซึ่งรวมถึงการให้การอ้างอิงที่ชัดเจนและอนุญาตให้ผู้ใช้ติดตามที่มาของข้อมูลที่นำเสนอได้อย่างง่ายดาย
  • ความโปร่งใสและความสามารถในการอธิบาย: โมเดล AI ควรมีความโปร่งใสมากขึ้นเกี่ยวกับกระบวนการตัดสินใจ ผู้ใช้ควรสามารถเข้าใจได้ว่าเหตุใดแชทบอทจึงให้การตอบสนองเฉพาะและแหล่งข้อมูลใดที่ใช้อ้างอิง

การรับรู้ของผู้ใช้:

  • การศึกษาความรู้เท่าทันสื่อ: ผู้ใช้จำเป็นต้องได้รับการศึกษาเกี่ยวกับศักยภาพของข้อมูลที่ผิดที่สร้างโดย AI ซึ่งรวมถึงการพัฒนาทักษะการคิดเชิงวิพากษ์และการเรียนรู้วิธีประเมินความน่าเชื่อถือของแหล่งข้อมูลออนไลน์
  • ความสงสัยและการตรวจสอบ: ผู้ใช้ควรเข้าหาข้อมูลที่ได้รับจากแชทบอท AI ด้วยความสงสัยในปริมาณที่พอเหมาะ เป็นสิ่งสำคัญที่จะต้องอ้างอิงข้อมูลกับแหล่งอื่นๆ และระมัดระวังคำกล่าวอ้างที่ดูเหมือนจะโลดโผนเกินไปหรือดีเกินจริง

ความเสี่ยงระยะยาว: ทางการเมือง สังคม และเทคโนโลยี

การแพร่กระจายของการบิดเบือนข้อมูลผ่านแชทบอท AI ที่ไม่ได้รับการตรวจสอบก่อให้เกิดความเสี่ยงระยะยาวที่สำคัญ ความเสี่ยงเหล่านี้ขยายไปไกลกว่าผลกระทบในทันทีของเรื่องเล่าเท็จแต่ละเรื่อง และครอบคลุมถึงผลกระทบทางสังคมในวงกว้าง

  • ความเสี่ยงทางการเมือง: การบิดเบือนความคิดเห็นของประชาชนผ่านการบิดเบือนข้อมูลที่ขับเคลื่อนด้วย AI สามารถบ่อนทำลายกระบวนการประชาธิปไตยและกัดกร่อนความไว้วางใจในสถาบันต่างๆ สามารถใช้เพื่อมีอิทธิพลต่อการเลือกตั้ง หว่านความขัดแย้ง และทำให้รัฐบาลไม่มั่นคง
  • ความเสี่ยงทางสังคม: การแพร่กระจายของเรื่องเล่าเท็จสามารถทำให้ความแตกแยกทางสังคมที่มีอยู่รุนแรงขึ้นและสร้างความแตกแยกใหม่ขึ้นมาได้ สามารถกระตุ้นอคติ การเลือกปฏิบัติ และแม้กระทั่งความรุนแรง
  • ความเสี่ยงทางเทคโนโลยี: การกัดกร่อนของความไว้วางใจในเทคโนโลยี AI เนื่องจากการแพร่กระจายของข้อมูลที่ผิดอาจขัดขวางการพัฒนาและการนำไปใช้ ผู้คนอาจลังเลที่จะใช้เครื่องมือ AI หากพวกเขาไม่สามารถมั่นใจในความถูกต้องและความน่าเชื่อถือของข้อมูลที่ให้ไว้

การต่อสู้กับการบิดเบือนข้อมูลที่ขับเคลื่อนด้วย AI เป็นสิ่งสำคัญ ต้องใช้ความพยายามร่วมกันจากนักพัฒนา AI ผู้กำหนดนโยบาย นักการศึกษา และผู้ใช้แต่ละรายเพื่อให้แน่ใจว่าเทคโนโลยีอันทรงพลังเหล่านี้ถูกใช้อย่างมีความรับผิดชอบและมีจริยธรรม อนาคตของข้อมูล และอนาคตของสังคมของเรา อาจขึ้นอยู่กับมัน