ผู้ใช้ X ใช้ Grok ตรวจสอบข้อเท็จจริง หวั่นข้อมูลผิด

การเพิ่มขึ้นของ AI ในการตรวจสอบข้อมูล

การบูรณาการ AI เข้ากับแพลตฟอร์มโซเชียลมีเดียไม่ใช่เรื่องใหม่ การที่ X อนุญาตให้ผู้ใช้โต้ตอบกับ Grok ของ xAI นั้น เป็นไปตามเทรนด์ในบางแง่มุม สิ่งนี้สะท้อนแนวทางของ Perplexity ซึ่งดำเนินการบัญชีอัตโนมัติบน X เพื่อมอบประสบการณ์ที่คล้ายคลึงกัน

หลังจากที่ xAI สร้างบัญชีอัตโนมัติของ Grok บน X ผู้ใช้ก็เริ่มสำรวจความสามารถของมันอย่างรวดเร็ว ตั้งคำถามและค้นหาคำตอบ ในภูมิภาคต่างๆ เช่น อินเดีย รูปแบบที่น่ากังวลเป็นพิเศษได้ปรากฏขึ้น: บุคคลเริ่มใช้ Grok เพื่อตรวจสอบความคิดเห็นและคำถาม ซึ่งหลายคำถามมุ่งเป้าไปที่อุดมการณ์ทางการเมืองที่เฉพาะเจาะจง

ความกังวลของผู้ตรวจสอบข้อเท็จจริงที่เป็นมนุษย์

การพึ่งพา Grok และผู้ช่วย AI อื่นๆ ในลักษณะนี้ สำหรับการตรวจสอบข้อเท็จจริงเป็นสาเหตุของความกังวลอย่างมาก ธรรมชาติของบอท AI เหล่านี้คือพวกเขาสามารถสร้างคำตอบที่ ฟังดู น่าเชื่อถือ โดยไม่คำนึงถึงความถูกต้องตามข้อเท็จจริง นี่ไม่ใช่ความกังวลเชิงทฤษฎี Grok มีประวัติที่บันทึกไว้ในการเผยแพร่ข่าวปลอมและข้อมูลที่ผิด

กรณีหนึ่งที่โดดเด่นคือ เลขาธิการของรัฐหลายคนขอร้องให้ Musk ทำการปรับเปลี่ยน Grok ที่สำคัญ คำขอนี้เกิดขึ้นอย่างเร่งด่วนหลังจากที่มีข้อมูลที่ทำให้เข้าใจผิด ซึ่งสร้างโดยผู้ช่วย AI ปรากฏบนเครือข่ายสังคมออนไลน์ ทำให้เกิดความตื่นตระหนกในช่วงก่อนการเลือกตั้ง

Grok ไม่ได้อยู่คนเดียวในเรื่องนี้ แชทบอทที่โดดเด่นอื่นๆ รวมถึง ChatGPT ของ OpenAI และ Gemini ของ Google ก็พบว่ามีการสร้างข้อมูลที่ไม่ถูกต้องเกี่ยวกับการเลือกตั้งเช่นกัน นักวิจัยด้านข้อมูลบิดเบือนยังเน้นย้ำถึงศักยภาพในการใช้งานในทางที่ผิด โดยเปิดเผยในปี 2023 ว่าแชทบอท AI เช่น ChatGPT สามารถถูกนำไปใช้ประโยชน์เพื่อสร้างข้อความที่น่าเชื่อถือซึ่งมีเนื้อหาที่ทำให้เข้าใจผิดได้อย่างง่ายดาย

ภาพลวงตาของความถูกต้อง

Angie Holan ผู้อำนวยการ International Fact-Checking Network (IFCN) ที่ Poynter กล่าวถึงประเด็นหลักว่า “ผู้ช่วย AI เช่น Grok พวกเขาเก่งมากในการใช้ภาษาธรรมชาติและให้คำตอบที่ฟังดูเหมือนมนุษย์พูด และด้วยวิธีนี้ ผลิตภัณฑ์ AI จึงมีการอ้างถึงความเป็นธรรมชาติและการตอบสนองที่ฟังดูเป็นของแท้ แม้ว่าพวกเขาอาจจะผิดมากก็ตาม นั่นคืออันตรายที่นี่”

อันตรายดังที่ Holan เน้นย้ำ อยู่ที่รูปลักษณ์ภายนอกที่หลอกลวงของความถูกต้อง ความสามารถของ AI ในการเลียนแบบภาษามนุษย์สร้างภาพลวงตาของความน่าเชื่อถือ แม้ว่าข้อมูลพื้นฐานจะไม่ถูกต้องหรือถูกสร้างขึ้นทั้งหมด

ความแตกต่างพื้นฐาน: AI กับผู้ตรวจสอบข้อเท็จจริงที่เป็นมนุษย์

ความแตกต่างระหว่างผู้ช่วย AI และผู้ตรวจสอบข้อเท็จจริงที่เป็นมนุษย์นั้นชัดเจน ผู้ตรวจสอบข้อเท็จจริงที่เป็นมนุษย์ตรวจสอบข้อมูลอย่างพิถีพิถัน โดยอ้างอิงจากแหล่งข้อมูลที่น่าเชื่อถือหลายแหล่ง พวกเขาดำเนินการด้วยความโปร่งใส โดยแนบชื่อและสังกัดองค์กรของตนกับสิ่งที่ค้นพบ เพื่อให้มั่นใจในความรับผิดชอบและเสริมสร้างความน่าเชื่อถือ

Pratik Sinha ผู้ร่วมก่อตั้งเว็บไซต์ตรวจสอบข้อเท็จจริงที่ไม่แสวงหาผลกำไรของอินเดีย Alt News ชี้ให้เห็นว่าในขณะที่คำตอบของ Grok อาจดูน่าเชื่อถือในปัจจุบัน แต่ความถูกต้องของมันถูกจำกัดโดยข้อมูลที่ได้รับ “ใครจะเป็นผู้ตัดสินใจว่าจะได้รับข้อมูลอะไร และนั่นคือจุดที่การแทรกแซงของรัฐบาล ฯลฯ จะเข้ามามีบทบาท” เขากล่าว โดยเน้นย้ำถึงประเด็นสำคัญของความโปร่งใสของแหล่งข้อมูล

Sinha เน้นย้ำว่าการขาดความโปร่งใสเป็นแหล่งเพาะพันธุ์ของอันตรายที่อาจเกิดขึ้น “สิ่งใดก็ตามที่ขาดความโปร่งใสจะก่อให้เกิดอันตราย เพราะสิ่งใดก็ตามที่ขาดความโปร่งใสสามารถถูกหล่อหลอมไปในทางใดก็ได้”

การยอมรับของ Grok เอง: ศักยภาพในการใช้งานในทางที่ผิด

ในสิ่งที่ค่อนข้างย้อนแย้ง บัญชีของ Grok บน X ในหนึ่งในคำตอบที่โพสต์ ยอมรับว่ามัน “อาจถูกนำไปใช้ในทางที่ผิด — เพื่อเผยแพร่ข้อมูลที่ผิดและละเมิดความเป็นส่วนตัว”

แม้จะมีการยอมรับนี้ บัญชีอัตโนมัติก็ไม่ได้ให้คำปฏิเสธความรับผิดชอบใดๆ แก่ผู้ใช้ที่ได้รับคำตอบ สิ่งนี้ทำให้ผู้ใช้เสี่ยงต่อการได้รับข้อมูลที่ผิด โดยเฉพาะอย่างยิ่งในกรณีที่ AI “หลอน” คำตอบ ซึ่งเป็นปรากฏการณ์ที่ได้รับการบันทึกไว้อย่างดีในขอบเขตของ AI ที่ระบบสร้างข้อมูลที่เป็นเท็จหรือไม่สมเหตุสมผล

Anushka Jain นักวิจัยร่วมที่ Digital Futures Lab อธิบายเพิ่มเติมเกี่ยวกับประเด็นนี้ โดยระบุว่า “มันอาจสร้างข้อมูลขึ้นมาเพื่อให้คำตอบ” แนวโน้มที่จะสร้างข้อมูลนี้เน้นย้ำถึงข้อจำกัดโดยธรรมชาติของ AI ในบริบทของการตรวจสอบข้อเท็จจริง

ปัญหาข้อมูลการฝึกอบรม

ความซับซ้อนอีกชั้นหนึ่งเกิดขึ้นจากคำถามเกี่ยวกับข้อมูลการฝึกอบรมของ Grok มีความไม่แน่นอนเกี่ยวกับขอบเขตที่ Grok ใช้โพสต์บน X เป็นสื่อการฝึกอบรม และมาตรการควบคุมคุณภาพ (ถ้ามี) ที่ใช้ในการตรวจสอบข้อเท็จจริงของโพสต์ดังกล่าว การเปลี่ยนแปลงที่ดำเนินการก่อนหน้านี้ดูเหมือนจะให้ Grok เข้าถึงข้อมูลผู้ใช้ X ได้โดยค่าเริ่มต้น ทำให้เกิดความกังวลเกี่ยวกับศักยภาพของ AI ในการดูดซับและเผยแพร่ข้อมูลที่ผิดที่มีอยู่บนแพลตฟอร์ม

การบริโภคข้อมูลที่สร้างโดย AI แบบสาธารณะกับแบบส่วนตัว

ข้อกังวลที่สำคัญอีกประการหนึ่งเกี่ยวข้องกับลักษณะสาธารณะของผู้ช่วย AI เช่น Grok บนแพลตฟอร์มโซเชียลมีเดีย ซึ่งแตกต่างจากการโต้ตอบกับแชทบอท เช่น ChatGPT ซึ่งโดยทั่วไปจะเกิดขึ้นในสภาพแวดล้อมส่วนตัว คำตอบของ Grok จะถูกส่งมอบต่อสาธารณะ

การเผยแพร่ต่อสาธารณะนี้สร้างสถานการณ์ที่แม้ว่าผู้ใช้รายหนึ่งจะทราบว่าข้อมูลที่ AI ให้มาอาจไม่ถูกต้อง แต่ผู้ใช้รายอื่นบนแพลตฟอร์มอาจยังคงยอมรับว่าเป็นความจริง สิ่งนี้สามารถนำไปสู่ผลกระทบทางสังคมที่ร้ายแรงได้

มีแบบอย่างทางประวัติศาสตร์อยู่ อินเดียเป็นพยานในเหตุการณ์โศกนาฏกรรมการรุมประชาทัณฑ์ที่เกิดจากข้อมูลที่ผิดซึ่งเผยแพร่ผ่าน WhatsApp เหตุการณ์เหล่านี้ แม้ว่าจะเกิดขึ้นก่อนการแพร่หลายของ Generative AI แต่ก็เป็นเครื่องเตือนใจที่ชัดเจนถึงอันตรายในโลกแห่งความเป็นจริงของข้อมูลที่ผิดที่ไม่ได้รับการตรวจสอบ การถือกำเนิดของ GenAI ด้วยความสามารถในการสร้างเนื้อหาสังเคราะห์ที่ดูสมจริงอย่างน่าทึ่ง ได้เพิ่มความเสี่ยงเหล่านี้ให้มากขึ้นเท่านั้น

อัตราความผิดพลาดของ AI

Holan จาก IFCN เตือนว่า “ถ้าคุณเห็นคำตอบของ Grok เหล่านี้จำนวนมาก คุณจะพูดว่า เฮ้ ส่วนใหญ่ถูกต้อง และนั่นอาจเป็นเช่นนั้น แต่จะมีบางส่วนที่ผิด และมีจำนวนเท่าไหร่? มันไม่ใช่เศษส่วนเล็กน้อย การศึกษาบางชิ้นแสดงให้เห็นว่าแบบจำลอง AI มีอัตราความผิดพลาด 20%… และเมื่อมันผิดพลาด มันอาจผิดพลาดอย่างร้ายแรงโดยมีผลกระทบในโลกแห่งความเป็นจริง”

อัตราความผิดพลาด 20% ดังที่ Holan เน้นย้ำ เป็นตัวเลขที่สำคัญ มันเน้นย้ำถึงความไม่น่าเชื่อถือโดยธรรมชาติของ AI ในสถานการณ์ที่ต้องการความถูกต้องตามข้อเท็จจริง และดังที่เธอเน้นย้ำ ผลกระทบของข้อผิดพลาดเหล่านี้อาจลึกซึ้ง ขยายไปไกลกว่าขอบเขตดิจิทัล

AI: เครื่องมือ ไม่ใช่สิ่งทดแทนการตัดสินใจของมนุษย์

ในขณะที่บริษัท AI รวมถึง xAI ปรับปรุงแบบจำลองของตนอย่างต่อเนื่องเพื่อให้ได้การสื่อสารที่เหมือนมนุษย์มากขึ้น ความเป็นจริงพื้นฐานยังคงอยู่: AI ไม่สามารถ และไม่ควร แทนที่การตัดสินใจของมนุษย์ โดยเฉพาะอย่างยิ่งในขอบเขตที่สำคัญของการตรวจสอบข้อเท็จจริง

แนวโน้มในหมู่บริษัทเทคโนโลยีในการสำรวจช่องทางเพื่อลดการพึ่งพาผู้ตรวจสอบข้อเท็จจริงที่เป็นมนุษย์เป็นสาเหตุของความกังวล แพลตฟอร์มเช่น X และ Meta ได้ยอมรับแนวคิดของการตรวจสอบข้อเท็จจริงแบบ crowdsourced ซึ่งเป็นตัวอย่างโดยความคิดริเริ่มเช่น “Community Notes” การเปลี่ยนแปลงเหล่านี้ แม้ว่าอาจมีข้อดีบางประการ แต่ก็ทำให้เกิดคำถามเกี่ยวกับศักยภาพในการกัดเซาะมาตรฐานการตรวจสอบข้อเท็จจริงที่เข้มงวด

การแกว่งกลับไปสู่การตรวจสอบข้อเท็จจริงโดยมนุษย์?

Sinha จาก Alt News แสดงมุมมองในแง่ดี โดยแนะนำว่าในที่สุดผู้คนจะเรียนรู้ที่จะแยกแยะระหว่างผลลัพธ์ของเครื่องจักรและงานของผู้ตรวจสอบข้อเท็จจริงที่เป็นมนุษย์ โดยให้ความสำคัญกับความถูกต้องและความน่าเชื่อถือของอย่างหลังในที่สุด

“เราจะเห็นลูกตุ้มแกว่งกลับไปสู่การตรวจสอบข้อเท็จจริงมากขึ้นในที่สุด” Holan จาก IFCN ทำนาย

อย่างไรก็ตาม เธอเตือนว่าในระหว่างนี้ ผู้ตรวจสอบข้อเท็จจริงมีแนวโน้มที่จะเผชิญกับภาระงานที่เพิ่มขึ้นเนื่องจากการแพร่กระจายอย่างรวดเร็วของข้อมูลที่สร้างโดย AI ความท้าทายคือการต่อต้านกระแสข้อมูลที่ผิดอย่างมีประสิทธิภาพ เพื่อให้มั่นใจว่าประชาชนยังคงได้รับข้อมูลจากความจริง ไม่ใช่จากภาพลวงตาที่น่าเชื่อถือ

คำถามหลัก: ใส่ใจในความจริงหรือไม่

หัวใจของเรื่องนี้อยู่ที่คำถามพื้นฐาน: “คุณใส่ใจจริงๆ หรือไม่ว่าอะไรคือความจริง? หรือคุณเพียงแค่มองหาเปลือกนอกของสิ่งที่ฟังดูและรู้สึกว่าเป็นจริงโดยที่ไม่เป็นจริง? เพราะนั่นคือสิ่งที่ผู้ช่วย AI จะให้คุณ” Holan กล่าว

คำถามนี้สรุปภาวะที่กลืนไม่เข้าคายไม่ออกที่สำคัญซึ่งเกิดจากการเพิ่มขึ้นของ AI ในการเผยแพร่ข้อมูล เราในฐานะสังคม ยินดีที่จะให้ความสำคัญกับความสะดวกสบายและรูปลักษณ์ของความจริงมากกว่ากระบวนการตรวจสอบข้อเท็จจริงที่ลำบากหรือไม่? คำตอบสำหรับคำถามนี้จะกำหนดอนาคตของข้อมูลในที่สุด โดยพิจารณาว่าเราจะยอมจำนนต่อโลกแห่งความเป็นจริงที่ถูกสร้างขึ้น หรือยึดมั่นในหลักการของความจริงและความถูกต้อง