ภาพลวงตาของความแม่นยำ
คำมั่นสัญญาพื้นฐานของเครื่องมือค้นหาคือการเชื่อมโยงผู้ใช้กับแหล่งข้อมูลที่น่าเชื่อถือ แต่ตอนนี้คำมั่นสัญญานั้นกำลังถูกกัดกร่อน เครื่องมือค้นหาที่ขับเคลื่อนด้วย AI กำลังให้ความสำคัญกับความเร็วมากกว่าเนื้อหามากขึ้น โดยสร้างคำตอบที่ ดูเหมือน จะมั่นใจ แต่ขาดการสนับสนุนที่สำคัญของหลักฐานที่ตรวจสอบได้ สิ่งที่เรากำลังเห็นคือการเปลี่ยนแปลงจากระบบที่นำผู้ใช้ไปยังข้อมูลที่เชื่อถือได้ ไปสู่ระบบที่ สร้าง คำตอบขึ้นมา โดยมักจะไม่คำนึงถึงความจริง
นี่ไม่ใช่แค่เรื่องของข้อผิดพลาดเป็นครั้งคราว แต่เป็นปัญหาระบบ การศึกษาของ Columbia Journalism Review (CJR) เปิดเผยว่าเครื่องมือค้นหา AI ไม่เพียงแต่ทำผิดพลาดเท่านั้น แต่ยังสร้างความเป็นจริงที่แยกออกจากแหล่งข้อมูลที่ตรวจสอบได้อย่างแข็งขัน พวกเขากำลังคัดลอกเนื้อหาจากทั่วทั้งเว็บ แต่แทนที่จะนำผู้ใช้ไปยังแหล่งที่มาดั้งเดิม—เว็บไซต์ที่ผลิตและเผยแพร่ข้อมูลอย่างอุตสาหะ—พวกเขากลับให้คำตอบทันที ซึ่งมักจะถูกสร้างขึ้น
การระบายการเข้าชมและแหล่งอ้างอิงหลอก
ผลที่ตามมาของแนวทางนี้มีมากมาย ผลกระทบในทันทีคือการลดลงอย่างมากของการเข้าชมแหล่งที่มาดั้งเดิมของข้อมูล เว็บไซต์ องค์กรข่าว และนักวิจัยที่ลงทุนเวลาและทรัพยากรในการสร้างเนื้อหากำลังพบว่าตัวเองถูกมองข้าม ผู้ใช้ได้รับคำตอบโดยตรงจาก AI โดยไม่จำเป็นต้องเยี่ยมชมไซต์ที่สร้างข้อมูล
การศึกษาแยกต่างหากยืนยันแนวโน้มที่น่าตกใจนี้ โดยพบว่าอัตราการคลิกผ่านจากผลการค้นหาและแชทบอทที่สร้างโดย AI นั้นต่ำกว่าผลการค้นหาจากเครื่องมือค้นหาแบบดั้งเดิมอย่าง Google อย่างมาก ซึ่งหมายความว่าเส้นเลือดใหญ่ของเนื้อหาออนไลน์—ความสามารถในการเข้าถึงผู้ชม—กำลังถูกบีบคออย่างช้าๆ
แต่ปัญหานั้นลึกซึ้งยิ่งกว่านั้น เครื่องมือ AI เหล่านี้ไม่เพียงแต่ล้มเหลวในการให้เครดิตแหล่งที่มาเท่านั้น แต่ยังสร้าง แหล่งอ้างอิงหลอก ขึ้นมาบ่อยครั้ง พวกเขากำลังสร้างลิงก์ไปยังหน้าเว็บที่ไม่มีอยู่จริง หรือไปยัง URL ที่ใช้งานไม่ได้หรือไม่เกี่ยวข้อง นี่คล้ายกับนักเรียนที่เขียนรายงานการวิจัยและสร้างแหล่งที่มาเพื่อสนับสนุนข้อเรียกร้องของพวกเขา มันไม่ใช่แค่ความเลินเล่อเท่านั้น แต่เป็นการละเมิดความซื่อสัตย์ทางปัญญาขั้นพื้นฐาน
เจาะลึกการหลอกลวง
การศึกษาของ CJR ได้วิเคราะห์ประสิทธิภาพของแบบจำลองการค้นหา AI ชั้นนำหลายตัวอย่างพิถีพิถัน ผลลัพธ์ที่ได้นั้นน่ากังวลอย่างยิ่ง การอ้างอิงมากกว่าครึ่งที่สร้างโดย Gemini ของ Google และ Grok 3 ของ xAI—ผู้เล่นที่โดดเด่นสองรายในภูมิทัศน์การค้นหา AI—นำไปสู่หน้าเว็บที่ถูกสร้างขึ้นหรือเข้าถึงไม่ได้ นี่ไม่ใช่ข้อบกพร่องเล็กน้อย แต่เป็นความล้มเหลวของระบบ
และปัญหาก็ขยายไปไกลกว่าการอ้างอิง แชทบอทโดยทั่วไปพบว่าให้ข้อมูลที่ไม่ถูกต้องใน มากกว่า 60% ของกรณี ที่น่าตกใจ ในบรรดาแบบจำลองที่ได้รับการประเมิน Grok 3 โดดเด่นในฐานะผู้กระทำผิดที่เลวร้ายที่สุด โดย 94% ของการตอบสนองมีข้อมูลที่ไม่ถูกต้อง Gemini ในขณะที่ทำงานได้ดีกว่าเล็กน้อย ก็ยังคงให้คำตอบที่ถูกต้องอย่างสมบูรณ์เพียงครั้งเดียวในทุกๆ สิบครั้ง แม้แต่ Perplexity ซึ่งกลายเป็นแบบจำลองที่แม่นยำที่สุดในการทดสอบ ก็ยังคงให้คำตอบที่ไม่ถูกต้อง 37% ของเวลา
ตัวเลขเหล่านี้ไม่ใช่แค่สถิติ แต่แสดงถึงความล้มเหลวขั้นพื้นฐานในความน่าเชื่อถือของข้อมูล พวกเขาแนะนำว่าเครื่องมือที่ออกแบบมาเพื่อช่วยเรานำทางความซับซ้อนของโลกดิจิทัลนั้น แท้จริงแล้วกำลังนำเราไปในทางที่ผิด
เพิกเฉยต่อกฎ: Robot Exclusion Protocol
ผู้เขียนการศึกษาได้เปิดเผยอีกแง่มุมหนึ่งที่น่ากังวลของการหลอกลวงที่ขับเคลื่อนด้วย AI นี้ แบบจำลอง AI หลายตัวดูเหมือนจะจงใจเพิกเฉยต่อ Robot Exclusion Protocol โปรโตคอลนี้เป็นกลไกมาตรฐานที่ใช้กันอย่างแพร่หลาย ซึ่งช่วยให้เว็บไซต์สามารถควบคุมส่วนต่างๆ ของไซต์ที่บอทอัตโนมัติสามารถเข้าถึงและคัดลอกได้ เป็นวิธีที่เว็บไซต์สามารถปกป้องเนื้อหาและจัดการวิธีการใช้งานได้
ข้อเท็จจริงที่ว่าเครื่องมือค้นหา AI กำลังเพิกเฉยต่อโปรโตคอลนี้ทำให้เกิดคำถามทางจริยธรรมที่ร้ายแรง มันแสดงให้เห็นถึงการไม่เคารพสิทธิ์ของผู้สร้างเนื้อหาและความเต็มใจที่จะใช้ประโยชน์จากข้อมูลออนไลน์โดยไม่ได้รับอนุญาต พฤติกรรมนี้บ่อนทำลายรากฐานของเว็บ ซึ่งอาศัยความสมดุลที่ละเอียดอ่อนระหว่างการเข้าถึงข้อมูลและการคุ้มครองทรัพย์สินทางปัญญา
เสียงสะท้อนของคำเตือนในอดีต
ผลการศึกษาของ CJR ไม่ได้โดดเดี่ยว พวกเขาสอดคล้องกับการศึกษาก่อนหน้านี้ที่ตีพิมพ์ในเดือนพฤศจิกายน 2024 ซึ่งมุ่งเน้นไปที่ความสามารถในการค้นหาของ ChatGPT การตรวจสอบก่อนหน้านี้เปิดเผยรูปแบบที่สอดคล้องกันของการตอบสนองที่มั่นใจแต่ไม่ถูกต้อง การอ้างอิงที่ทำให้เข้าใจผิด และการดึงข้อมูลที่ไม่น่าเชื่อถือ กล่าวอีกนัยหนึ่ง ปัญหาที่ระบุโดย CJR ไม่ใช่เรื่องใหม่ แต่เป็นปัญหาที่ต่อเนื่องและเป็นระบบ
การกัดเซาะความไว้วางใจและอำนาจ
ผู้เชี่ยวชาญในสาขานี้ได้ส่งสัญญาณเตือนเกี่ยวกับอันตรายของ generative AI มาระยะหนึ่งแล้ว นักวิจารณ์เช่น Chirag Shah และ Emily M. Bender ได้แสดงความกังวลว่าเครื่องมือค้นหา AI กำลังกัดกร่อนอำนาจของผู้ใช้ ขยายอคติในการเข้าถึงข้อมูล และมักจะนำเสนอคำตอบที่ทำให้เข้าใจผิดหรือเป็นพิษที่ผู้ใช้อาจยอมรับโดยไม่ตั้งคำถาม
ปัญหาหลักคือแบบจำลอง AI เหล่านี้ได้รับการออกแบบมาให้ ฟังดู มีอำนาจ แม้ว่าพวกเขาจะผิดก็ตาม พวกเขาได้รับการฝึกฝนจากชุดข้อมูลขนาดใหญ่ของข้อความและโค้ด และพวกเขาสามารถสร้างการตอบสนองที่เลียนแบบภาษามนุษย์ได้อย่างคล่องแคล่วอย่างน่าทึ่ง แต่ความคล่องแคล่วนี้อาจหลอกลวงได้ มันสามารถปกปิดความจริงที่ว่าข้อมูลพื้นฐานมีข้อบกพร่อง ถูกสร้างขึ้น หรือไม่ถูกต้อง
กลไกของข้อมูลที่ผิด
การศึกษาของ CJR เกี่ยวข้องกับการวิเคราะห์โดยละเอียดของ 1,600 คำค้นหา ซึ่งออกแบบมาเพื่อเปรียบเทียบว่าแบบจำลองการค้นหา generative AI ที่แตกต่างกันดึงข้อมูลอย่างไร นักวิจัยมุ่งเน้นไปที่องค์ประกอบหลัก เช่น พาดหัวข่าว ผู้เผยแพร่ วันที่เผยแพร่ และ URL พวกเขาทดสอบแบบจำลองหลายแบบ รวมถึง ChatGPT Search, Microsoft CoPilot, DeepSeek Search, Perplexity (และรุ่น Pro), Grok-2 และ Grok-3 Search ของ xAI และ Google Gemini
วิธีการทดสอบมีความเข้มงวด นักวิจัยใช้ข้อความที่ตัดตอนมาโดยตรงจากบทความที่สุ่มเลือกสิบรายการ ซึ่งมาจากผู้เผยแพร่ 20 ราย แนวทางนี้ทำให้มั่นใจได้ว่าคำค้นหาอิงตามเนื้อหาในโลกแห่งความเป็นจริง และแบบจำลองได้รับการประเมินตามความสามารถในการดึงและนำเสนอเนื้อหานั้นได้อย่างถูกต้อง
ผลลัพธ์ดังที่ได้กล่าวไว้ก่อนหน้านี้ แสดงให้เห็นภาพที่น่าหดหู่ของสถานะของการค้นหาที่ขับเคลื่อนด้วย AI เครื่องมือที่กำลังกลายเป็นประตูหลักของเราสู่ข้อมูลนั้นไม่น่าเชื่อถืออย่างเห็นได้ชัด มีแนวโน้มที่จะถูกสร้างขึ้น และมักจะไม่เคารพแหล่งที่มาที่พวกเขาพึ่งพา
ผลกระทบต่ออนาคตของข้อมูล
ผลกระทบของข้อมูลที่ผิดที่แพร่หลายนี้มีความลึกซึ้ง หากเราไม่สามารถเชื่อถือเครื่องมือที่เราใช้ในการค้นหาข้อมูลได้ เราจะตัดสินใจอย่างมีข้อมูลได้อย่างไร เราจะมีส่วนร่วมในการอภิปรายที่มีความหมายได้อย่างไร เราจะให้ผู้มีอำนาจรับผิดชอบได้อย่างไร
การเพิ่มขึ้นของการค้นหาที่ขับเคลื่อนด้วย AI ด้วยข้อบกพร่องและอคติโดยธรรมชาติ เป็นภัยคุกคามที่สำคัญต่อโครงสร้างของระบบนิเวศข้อมูลของเรา มันบ่อนทำลายความน่าเชื่อถือขององค์กรข่าว นักวิจัย และผู้สร้างเนื้อหาอื่นๆ มันกัดกร่อนความไว้วางใจของสาธารณชนในสถาบัน และให้อำนาจแก่ผู้ที่พยายามเผยแพร่ข้อมูลที่ผิดและบิดเบือนความคิดเห็นของประชาชน
ความท้าทายที่อยู่ตรงหน้าเราไม่ใช่เพียงแค่การปรับปรุงความแม่นยำของเครื่องมือค้นหา AI เท่านั้น แต่เป็นการคิดใหม่โดยพื้นฐานเกี่ยวกับวิธีที่เราเข้าถึงการค้นหาข้อมูลในยุคดิจิทัล เราจำเป็นต้องจัดลำดับความสำคัญของความโปร่งใส ความรับผิดชอบ และการเคารพแหล่งที่มาของข้อมูล เราจำเป็นต้องพัฒนาเครื่องมือและกลยุทธ์ที่ช่วยให้ผู้ใช้สามารถประเมินข้อมูลที่พวกเขาพบทางออนไลน์ได้อย่างมีวิจารณญาณ และเราจำเป็นต้องส่งเสริมวัฒนธรรมแห่งความสงสัยและการคิดเชิงวิพากษ์ ที่เราไม่ได้เป็นเพียงผู้รับข้อมูลแบบเฉยๆ แต่เป็นผู้มีส่วนร่วมอย่างแข็งขันในการแสวงหาความจริง อนาคตของการสนทนาที่มีข้อมูล และอาจรวมถึงระบอบประชาธิปไตยเองก็ขึ้นอยู่กับมัน
วิกฤตข้อมูลที่ผิดในการค้นหาที่ขับเคลื่อนด้วย AI ไม่ใช่แค่ปัญหาทางเทคนิคเท่านั้น แต่เป็นปัญหาสังคม มันต้องการการตอบสนองที่หลากหลาย ซึ่งเกี่ยวข้องกับไม่เพียงแต่วิศวกรและนักพัฒนาเท่านั้น แต่ยังรวมถึงนักข่าว นักการศึกษา ผู้กำหนดนโยบาย และประชาชนทั่วไปด้วย เราต้องร่วมกันทำงานเพื่อสร้างระบบนิเวศข้อมูลที่น่าเชื่อถือ โปร่งใส และเชื่อถือได้มากขึ้น ซึ่งตอบสนองความต้องการของพลเมืองที่มีข้อมูล ไม่ใช่ผู้เผยแพร่ข้อมูลเท็จ
วิถีปัจจุบันไม่ยั่งยืน หากการค้นหา AI ยังคงให้ความสำคัญกับความเร็วและความสะดวกสบายมากกว่าความแม่นยำและความจริง เราเสี่ยงที่จะสร้างโลกที่ข้อมูลที่ผิดครองอำนาจสูงสุด และที่ซึ่งแนวคิดของความเป็นจริงตามวัตถุประสงค์นั้นเข้าใจยากขึ้นเรื่อยๆ เดิมพันนั้นสูงเกินกว่าจะปล่อยให้สิ่งนี้เกิดขึ้น