ในช่วงความขัดแย้งสั้น ๆ ระหว่างอินเดียและปากีสถาน ข้อมูลที่ผิดพลาดเพิ่มขึ้นอย่างรวดเร็ว ผู้ใช้สื่อสังคมออนไลน์เริ่มพึ่งพาแชทบอท AI เพื่อตรวจสอบความถูกต้อง อย่างไรก็ตาม แชทบอทเหล่านี้กลับให้ข้อมูลที่เป็นเท็จมากขึ้น ตอกย้ำถึงความไม่น่าเชื่อถือในฐานะเครื่องมือตรวจสอบข้อเท็จจริง เนื่องจากแพลตฟอร์มเทคโนโลยีขนาดใหญ่ต่าง ๆ ยังคงลดจำนวนผู้ตรวจสอบข้อเท็จจริงที่เป็นมนุษย์ลง ผู้ใช้จึงพึ่งพาแชทบอทที่ขับเคลื่อนด้วย AI มากขึ้น เช่น Grok ของ xAI, ChatGPT ของ OpenAI และ Gemini ของ Google เพื่อค้นหาข้อมูลที่เชื่อถือได้
การเพิ่มขึ้นของการตรวจสอบข้อเท็จจริงด้วย AI Chatbot
บนแพลตฟอร์ม X ของ Elon Musk (เดิมชื่อ Twitter) คำถามที่ว่า "@Grok นี่เป็นเรื่องจริงหรือไม่" กลายเป็นคำถามทั่วไปของผู้ใช้ Grok เป็นผู้ช่วย AI ที่ติดตั้งอยู่ในแพลตฟอร์ม X สะท้อนให้เห็นถึงแนวโน้มของผู้ใช้ที่แสวงหาการหักล้างข้อเท็จจริงทันทีบนสื่อสังคมออนไลน์ อย่างไรก็ตาม คำตอบของ AI Chatbot เหล่านี้มักเต็มไปด้วยข้อมูลที่ไม่ถูกต้อง
Grok ได้รับความสนใจอย่างใกล้ชิดเมื่อเร็ว ๆ นี้ เนื่องจากได้แทรกทฤษฎีสมคบคิดฝ่ายขวาสุดโต่งเรื่อง "White genocide" ลงในคำถามที่ไม่เกี่ยวข้อง Grok ระบุอย่างไม่ถูกต้องว่าวิดีโอเก่าจากสนามบินคาร์ทูมในซูดานเป็นภาพการโจมตีด้วยขีปนาวุธฐานทัพอากาศ Nur Khan ของปากีสถานในช่วงความขัดแย้งระหว่างอินเดียและปากีสถาน นอกจากนี้ อาคารที่กำลังไหม้ในเนปาลถูกระบุอย่างไม่ถูกต้องว่า "อาจจะ" แสดงให้เห็นถึงการตอบโต้ทางทหารของปากีสถานต่อการโจมตีของอินเดีย
ข้อจำกัดของการตรวจสอบข้อเท็จจริงด้วย AI
McKenzie Sadeghi นักวิจัยจาก NewsGuard ซึ่งเป็นหน่วยงานเฝ้าระวังข้อมูล บอกกับสำนักข่าว AFP ว่า "เนื่องจาก X และบริษัทเทคโนโลยีขนาดใหญ่อื่น ๆ ได้ลดการลงทุนในผู้ตรวจสอบข้อเท็จจริงที่เป็นมนุษย์ลง ผู้คนจึงพึ่งพา Grok ในฐานะผู้ตรวจสอบข้อเท็จจริงมากขึ้น" เธอเตือนว่า "การวิจัยของเราพบซ้ำ ๆ ว่า AI Chatbot ไม่ใช่แหล่งข่าวสารและข้อมูลที่เชื่อถือได้ โดยเฉพาะอย่างยิ่งในเรื่องข่าวด่วน"
การวิจัยของ NewsGuard พบว่าแชทบอทชั้นนำ 10 รายการ รวมถึง Grok ทำซ้ำข้อมูลเท็จได้อย่างง่ายดาย รวมถึงเรื่องเล่าที่เป็นเท็จของรัสเซีย และข้อกล่าวอ้างที่เป็นเท็จหรือทำให้เข้าใจผิดที่เกี่ยวข้องกับการเลือกตั้งในออสเตรเลียเมื่อเร็ว ๆ นี้ Tow Center for Digital Journalism ที่มหาวิทยาลัย Columbia เมื่อเร็ว ๆ นี้ได้ทำการศึกษาเครื่องมือค้นหา AI แปดรายการ พบว่าแชทบอท "มักไม่เก่งในการปฏิเสธที่จะตอบคำถามที่พวกเขาไม่สามารถตอบได้อย่างถูกต้อง แต่กลับให้คำตอบที่ไม่ถูกต้องหรือเป็นการคาดเดา"
ผู้ตรวจสอบข้อเท็จจริงของสำนักข่าว AFP ในอุรุกวัยถาม Gemini เกี่ยวกับภาพผู้หญิงที่สร้างโดย AI Gemini ไม่เพียงแต่ยืนยันความถูกต้องของภาพเท่านั้น แต่ยังสร้างรายละเอียดเกี่ยวกับอัตลักษณ์ของผู้หญิงคนนั้น และสถานที่ที่อาจถ่ายภาพอีกด้วย
เมื่อเร็ว ๆ นี้ Grok ได้ติดป้ายวิดีโอที่ถูกกล่าวหาว่าเป็นงูอนาคอนด้าขนาดยักษ์ว่ายน้ำในแม่น้ำอเมซอนว่าเป็น "ของจริง" และถึงกับอ้างถึงคณะสำรวจทางวิทยาศาสตร์ที่ฟังดูน่าเชื่อถือเพื่อสนับสนุนข้ออ้างที่เป็นเท็จของตน ในความเป็นจริง วิดีโอนี้สร้างโดย AI และผู้ตรวจสอบข้อเท็จจริงของสำนักข่าว AFP ในละตินอเมริการายงานว่าผู้ใช้จำนวนมากอ้างถึงการประเมินของ Grok เป็นหลักฐานว่าวิดีโอนี้เป็นของจริง
ความกังวลเกี่ยวกับการตรวจสอบข้อเท็จจริงด้วย AI
การค้นพบเหล่านี้ทำให้เกิดความกังวล เนื่องจากผลสำรวจแสดงให้เห็นว่าผู้ใช้ออนไลน์จำนวนมากขึ้นกำลังเปลี่ยนจากเครื่องมือค้นหาแบบเดิม ๆ ไปใช้ AI Chatbot เพื่อรวบรวมและตรวจสอบข้อมูล ในขณะเดียวกัน Meta ได้ประกาศเมื่อต้นปีนี้ว่าจะยุติโครงการตรวจสอบข้อเท็จจริงของบุคคลที่สามในสหรัฐอเมริกา โดยเปลี่ยนไปมอบหมายงานหักล้างข้อเท็จจริงให้กับผู้ใช้ทั่วไป โดยใช้รูปแบบที่เรียกว่า "Community Notes" ซึ่งแพลตฟอร์ม X ได้ส่งเสริม อย่างไรก็ตาม นักวิจัยได้ตั้งคำถามถึงประสิทธิภาพของ "Community Notes" ในการต่อสู้กับข้อมูลที่ผิดพลาดซ้ำแล้วซ้ำเล่า
การตรวจสอบข้อเท็จจริงโดยมนุษย์เป็นประเด็นที่ถกเถียงกันมานานในสภาพภูมิอากาศทางการเมืองที่มีการแบ่งขั้ว โดยเฉพาะอย่างยิ่งในสหรัฐอเมริกา ซึ่งผู้ที่สนับสนุนพรรคอนุรักษ์นิยมเชื่อว่าเป็นการปราบปรามเสรีภาพในการพูดและเซ็นเซอร์เนื้อหาฝ่ายขวา แต่นักตรวจสอบข้อเท็จจริงมืออาชีพคัดค้านข้อกล่าวอ้างนี้อย่างรุนแรง
ปัจจุบันสำนักข่าว AFP ทำงานร่วมกับโครงการตรวจสอบข้อเท็จจริงของ Facebook ใน 26 ภาษา รวมถึงในเอเชีย ละตินอเมริกา และสหภาพยุโรป
คุณภาพและความถูกต้องแม่นยำของ AI Chatbot อาจแตกต่างกันไป ขึ้นอยู่กับวิธีการฝึกอบรมและโปรแกรม ซึ่งก่อให้เกิดความกังวลว่าผลลัพธ์ของพวกมันอาจได้รับอิทธิพลทางการเมืองหรือถูกควบคุมได้
เมื่อเร็ว ๆ นี้ xAI ของ Musk ได้ตำหนิ Grok ที่สร้างโพสต์ที่ไม่พึงประสงค์โดยอ้างถึง "White genocide" ในแอฟริกาใต้ว่าเป็น "การปรับเปลี่ยนที่ไม่ได้รับอนุญาต" เมื่อ David Caswell ผู้เชี่ยวชาญด้าน AI ถาม Grok ว่าใครอาจแก้ไขคำแนะนำระบบของตน Chatbot ได้ระบุว่า Musk เป็นผู้กระทำผิดที่ "น่าจะเป็นที่สุด"
Musk เป็นมหาเศรษฐีที่เกิดในแอฟริกาใต้และเป็นผู้สนับสนุนประธานาธิบดี Donald Trump ของสหรัฐอเมริกา ก่อนหน้านี้เขาได้เผยแพร่ข้อกล่าวอ้างที่ไม่มีมูลความจริง โดยกล่าวว่าผู้นำในแอฟริกาใต้ "กำลังผลักดันให้เกิดการฆ่าล้างเผ่าพันธุ์คนผิวขาวอย่างเปิดเผย"
Angie Holan ผู้อำนวยการ International Fact-Checking Network บอกกับสำนักข่าว AFP ว่า "เราได้เห็นผู้ช่วย AI สร้างผลลัพธ์หรือให้คำตอบที่มีอคติ หลังจากที่ผู้เขียนโปรแกรมที่เป็นมนุษย์ได้เปลี่ยนแปลงคำสั่งของพวกเขาโดยเฉพาะ" "ฉันกังวลเป็นพิเศษเกี่ยวกับวิธีที่ Grok จัดการกับคำขอเกี่ยวกับเรื่องที่ละเอียดอ่อนมาก หลังจากได้รับคำสั่งให้ให้คำตอบที่ได้รับอนุญาตล่วงหน้า"
ความเสี่ยงของ AI Chatbot ในขอบเขตข้อมูล
การประยุกต์ใช้ AI Chatbot ที่เพิ่มขึ้นในการให้ข้อมูลก่อให้เกิดความกังวลอย่างร้ายแรงที่เกี่ยวข้องกับผลกระทบที่อาจทำให้เข้าใจผิดและบิดเบือน แม้ว่าเทคโนโลยีเหล่านี้จะมีข้อดีในการเข้าถึงข้อมูลอย่างรวดเร็วและปรับปรุงการวิจัยให้ง่ายขึ้น แต่ข้อจำกัดและอคติโดยธรรมชาติอาจเผยแพร่ข้อมูลที่ผิดพลาดหรือโฆษณาชวนเชื่อโดยไม่ได้ตั้งใจหรือโดยเจตนา
ข้อจำกัดโดยธรรมชาติของ AI Chatbot
AI Chatbot เรียนรู้โดยการวิเคราะห์ข้อมูลข้อความจำนวนมาก แต่พวกมันขาดความสามารถในการคิดเชิงวิพากษ์ที่เป็นลักษณะของมนุษย์ ซึ่งหมายความว่าพวกมันอาจดึงรูปแบบออกจากข้อมูลและสร้างการตอบสนองที่ดูสมเหตุสมผล แต่ไม่ได้เข้าใจความหมายหรือบริบทเบื้องหลังอย่างแท้จริง การขาดความรู้นี้อาจนำไปสู่การสร้างข้อมูลที่ไม่ถูกต้อง ไม่สมบูรณ์ หรือทำให้เข้าใจผิดได้
นอกจากนี้ ข้อมูลการฝึกอบรมสำหรับ AI Chatbot อาจมีอคติ ซึ่งสะท้อนให้เห็นในการตอบสนองที่สร้างขึ้น ตัวอย่างเช่น หากข้อมูลการฝึกอบรมมาจากแหล่งที่เฉพาะเจาะจงหรือมุมมองใดมุมมองหนึ่งเป็นหลัก Chatbot อาจแสดงความชอบต่อแหล่งที่มาหรือมุมมองนั้น ซึ่งเผยแพร่ข้อมูลที่เป็นอคติ
ความเสี่ยงที่เกิดจาก AI Chatbot
เมื่อผู้คนจำนวนมากขึ้นพึ่งพา AI Chatbot เพื่อรับข้อมูล ความเสี่ยงในการแพร่กระจายข้อมูลที่ผิดพลาดก็เพิ่มขึ้น หาก Chatbot สร้างข้อมูลที่ไม่ถูกต้องหรือทำให้เข้าใจผิด ผู้ใช้อาจยอมรับและเผยแพร่ข้อมูลเหล่านี้โดยไม่รู้ตัว ซึ่งนำไปสู่การแพร่กระจายความเชื่อที่ผิดพลาด
นอกจากนี้ AI Chatbot อาจถูกใช้เพื่อวัตถุประสงค์ที่เป็นอันตราย เช่น การเผยแพร่โฆษณาชวนเชื่อหรือบิดเบือนความคิดเห็นของประชาชน ด้วยการออกแบบข้อมูลการฝึกอบรมหรือปรับแต่งอัลกอริทึมอย่างพิถีพิถัน ผู้กระทำผิดที่เป็นอันตรายสามารถบิดเบือนให้ Chatbot สร้างการตอบสนองประเภทเฉพาะ ซึ่งส่งผลต่อความเชื่อและพฤติกรรมของผู้ใช้
วิธีลดความเสี่ยง
เพื่อลดความเสี่ยงที่เกี่ยวข้องกับ AI Chatbot จำเป็นต้องมีมาตรการบางอย่าง ขั้นแรก ผู้พัฒนาควรพยายามตรวจสอบให้แน่ใจว่าข้อมูลการฝึกอบรมสำหรับ AI Chatbot นั้นครอบคลุมและปราศจากอคติมากที่สุดเท่าที่จะเป็นไปได้ ซึ่งอาจต้องรวมถึงตัวอย่างข้อมูลที่หลากหลายจากแหล่งที่มาและมุมมองที่แตกต่างกัน เพื่อลดผลกระทบของอคติ
ประการที่สอง AI Chatbot จำเป็นต้องได้รับการทดสอบและประเมินอย่างเข้มงวด เพื่อระบุและแก้ไขแนวโน้มที่ไม่ถูกต้องหรือมีอคติ สิ่งนี้อาจต้องมีการตรวจสอบการตอบสนองที่สร้างโดย Chatbot ด้วยตนเอง และการใช้เมตริกที่หลากหลายเพื่อประเมินความถูกต้องและความเป็นกลาง
ประการที่สาม ผู้ใช้ควรคงความสามารถในการคิดเชิงวิพากษ์ และไม่เชื่อข้อมูลที่ AI Chatbot ให้มาอย่างสุ่มสี่สุ่มห้า ผู้ใช้ควรเปรียบเทียบข้อมูลจากแหล่งต่างๆ เสมอ และระวังอคติที่ Chatbot อาจมี
บทบาทของแพลตฟอร์มเทคโนโลยีและชุมชน
แพลตฟอร์มเทคโนโลยีและชุมชนมีบทบาทสำคัญในการควบคุมและกำกับดูแลเนื้อหาที่สร้างโดย AI Chatbot แพลตฟอร์มสามารถใช้กลยุทธ์เพื่อระบุและลบข้อมูลที่ผิดพลาดหรือโฆษณาชวนเชื่อ และสามารถร่วมมือกับองค์กรตรวจสอบข้อเท็จจริงเพื่อยืนยันความถูกต้องของการตอบสนองที่สร้างโดย Chatbot นอกจากนี้ ชุมชนสามารถช่วยสร้างความตระหนักรู้ของผู้ใช้โดยการส่งเสริมการอภิปรายเกี่ยวกับข้อจำกัดและอคติของ AI Chatbot และส่งเสริมให้ผู้ใช้คงความสามารถในการคิดเชิงวิพากษ์
บทสรุป
AI Chatbot เป็นเครื่องมือที่มีประโยชน์ แต่ก็มีข้อจำกัดและความเสี่ยงโดยธรรมชาติ เพื่อให้แน่ใจว่าเทคโนโลยีเหล่านี้ถูกใช้อย่างมีความรับผิดชอบและลดการแพร่กระจายของข้อมูลที่ผิดพลาดและการบิดเบือน ผู้พัฒนา ผู้ควบคุม และผู้ใช้จำเป็นต้องเฝ้าระวังอย่างสม่ำเสมอ ด้วยการทำตามมาตรการที่จำเป็น เราสามารถเพิ่มข้อดีของ AI Chatbot ให้สูงสุด ในขณะที่ลดอันตรายที่อาจเกิดขึ้นให้เหลือน้อยที่สุด