AI శోధన మిమ్మల్ని మోసం చేస్తోంది

ఖచ్చితత్వం యొక్క భ్రమ

శోధన ఇంజిన్‌ల ప్రాథమిక వాగ్దానం వినియోగదారులను విశ్వసనీయ మూలాలతో అనుసంధానించడం. ఇప్పుడు, ఆ వాగ్దానం క్షీణిస్తోంది. AI-ఆధారిత శోధన సాధనాలు వేగానికి అధిక ప్రాధాన్యతనిస్తున్నాయి, ధృవీకరించదగిన సాక్ష్యాల మద్దతు లేని సమాధానాలను అందిస్తున్నాయి. విశ్వసనీయ సమాచారం వైపు వినియోగదారులను మార్గనిర్దేశం చేసే వ్యవస్థ నుండి, తరచుగా వాటి సత్యానికి సంబంధించి తక్కువ శ్రద్ధతో, ప్రతిస్పందనలను తయారుచేసే వ్యవస్థకు మారుతున్నాము.

ఇది అప్పుడప్పుడు జరిగే పొరపాట్ల విషయం మాత్రమే కాదు. ఇది ఒక వ్యవస్థాగత సమస్య. కొలంబియా జర్నలిజం రివ్యూ (CJR) అధ్యయనం ప్రకారం, AI శోధన ఇంజిన్‌లు తప్పులు చేయడమే కాదు; అవి ధృవీకరించదగిన మూలాల నుండి విడాకులు తీసుకున్న వాస్తవికతను చురుకుగా నిర్మిస్తున్నాయి. అవి వెబ్ అంతటా కంటెంట్‌ను స్క్రాప్ చేస్తున్నాయి, అయితే వినియోగదారులను అసలు మూలాలకు-సమాచారాన్ని శ్రమతో ఉత్పత్తి చేసి ప్రచురించే వెబ్‌సైట్‌లకు-దారి మళ్లించే బదులు, అవి తక్షణమే, తరచుగా కల్పిత సమాధానాలను అందిస్తున్నాయి.

ట్రాఫిక్ డ్రెయిన్ మరియు ఫాంటమ్ సైటేషన్లు

ఈ విధానం యొక్క పరిణామాలు చాలా దూరం వరకు ఉన్నాయి. తక్షణ ప్రభావం ఏమిటంటే సమాచారం యొక్క అసలు మూలాలకు ట్రాఫిక్ గణనీయంగా తగ్గడం. కంటెంట్‌ను సృష్టించడానికి సమయం మరియు వనరులను పెట్టుబడి పెట్టే వెబ్‌సైట్‌లు, వార్తా సంస్థలు మరియు పరిశోధకులు తమను తాము దాటవేయడాన్ని కనుగొంటున్నారు. వినియోగదారులు తమ సమాధానాలను నేరుగా AI నుండి పొందుతున్నారు, సమాచారాన్ని అందించిన సైట్‌లను సందర్శించాల్సిన అవసరం లేదు.

మరొక అధ్యయనం ఈ ప్రమాదకర ధోరణిని ధృవీకరిస్తుంది, AI-ఉత్పత్తి చేసిన శోధన ఫలితాలు మరియు చాట్‌బాట్‌ల నుండి క్లిక్-త్రూ రేట్లు Google వంటి సాంప్రదాయ శోధన ఇంజిన్‌ల కంటే చాలా తక్కువగా ఉన్నాయని కనుగొంది. దీని అర్థం ఆన్‌లైన్ కంటెంట్ యొక్క జీవనాధారం-ప్రేక్షకులను చేరుకోగల సామర్థ్యం-నెమ్మదిగా నిలిచిపోతోంది.

అయితే సమస్య మరింత లోతుగా ఉంది. ఈ AI సాధనాలు మూలాలకు క్రెడిట్ ఇవ్వడంలో విఫలమవ్వడమే కాదు; అవి తరచుగా ఫాంటమ్ సైటేషన్‌లను సృష్టిస్తున్నాయి. అవి ఉనికిలో లేని వెబ్‌పేజీలకు లేదా విరిగిన లేదా అసంబద్ధమైన URLలకు లింక్‌లను ఉత్పత్తి చేస్తున్నాయి. ఇది ఒక విద్యార్థి పరిశోధనా పత్రాన్ని వ్రాసి, వారి వాదనలకు మద్దతు ఇవ్వడానికి మూలాలను కనుగొనడం లాంటిది. ఇది కేవలం అజాగ్రత్త మాత్రమే కాదు; ఇది మేధో నిజాయితీకి ప్రాథమిక ఉల్లంఘన.

మోసంలోకి లోతైన డైవ్

CJR అధ్యయనం అనేక ప్రముఖ AI శోధన నమూనాల పనితీరును క్షుణ్ణంగా విశ్లేషించింది. ఫలితాలు చాలా కలవరపెడుతున్నాయి. Google యొక్క Gemini మరియు xAI యొక్క Grok 3-AI శోధన రంగంలో ఇద్దరు ప్రముఖ వ్యక్తులు-ఉత్పత్తి చేసిన సగం కంటే ఎక్కువ సైటేషన్‌లు కల్పిత లేదా అందుబాటులో లేని వెబ్‌పేజీలకు దారితీశాయి. ఇది చిన్న లోపం కాదు; ఇది వ్యవస్థాగత వైఫల్యం.

మరియు సమస్య సైటేషన్‌లకు మించి విస్తరించింది. సాధారణంగా, చాట్‌బాట్‌లు 60% కంటే ఎక్కువ సందర్భాలలో తప్పు సమాచారాన్ని అందించినట్లు కనుగొనబడింది. విశ్లేషించబడిన నమూనాలలో, Grok 3 చెత్త నేరస్థుడిగా నిలిచింది, దాని ప్రతిస్పందనలలో 94% తప్పులు ఉన్నాయి. Gemini, కొంచెం మెరుగ్గా పనిచేసినప్పటికీ, ప్రతి పది ప్రయత్నాలలో ఒకసారి మాత్రమే పూర్తిగా సరైన సమాధానాన్ని అందించగలిగింది. పరీక్షించిన నమూనాలలో అత్యంత ఖచ్చితమైనదిగా ఉద్భవించిన Perplexity కూడా 37% సమయం తప్పు ప్రతిస్పందనలను అందించింది.

ఈ సంఖ్యలు కేవలం గణాంకాలు మాత్రమే కాదు; అవి సమాచారం యొక్క విశ్వసనీయతలో ప్రాథమిక విచ్ఛిన్నానికి ప్రాతినిధ్యం వహిస్తున్నాయి. డిజిటల్ ప్రపంచంలోని సంక్లిష్టతలను నావిగేట్ చేయడంలో మాకు సహాయపడటానికి రూపొందించబడిన సాధనాలు వాస్తవానికి మమ్మల్ని తప్పుదారి పట్టిస్తున్నాయని అవి సూచిస్తున్నాయి.

నియమాలను విస్మరించడం: రోబోట్ మినహాయింపు ప్రోటోకాల్

అధ్యయనం యొక్క రచయితలు ఈ AI-ఆధారిత మోసం యొక్క మరొక కలవరపరిచే అంశాన్ని వెలికితీశారు. అనేక AI నమూనాలు ఉద్దేశపూర్వకంగా రోబోట్ మినహాయింపు ప్రోటోకాల్‌ను విస్మరిస్తున్నట్లు కనిపించింది. ఈ ప్రోటోకాల్ అనేది ఒక ప్రామాణిక, విస్తృతంగా ఆమోదించబడిన యంత్రాంగం, ఇది వెబ్‌సైట్‌లు తమ సైట్‌లోని ఏ భాగాలను ఆటోమేటెడ్ బాట్‌ల ద్వారా యాక్సెస్ చేయవచ్చో మరియు స్క్రాప్ చేయవచ్చో నియంత్రించడానికి అనుమతిస్తుంది. వెబ్‌సైట్‌లు తమ కంటెంట్‌ను రక్షించుకోవడానికి మరియు అది ఎలా ఉపయోగించబడుతుందో నిర్వహించడానికి ఇది ఒక మార్గం.

AI శోధన ఇంజిన్‌లు ఈ ప్రోటోకాల్‌ను విస్మరిస్తున్నాయనే వాస్తవం తీవ్రమైన నైతిక ప్రశ్నలను లేవనెత్తుతుంది. ఇది కంటెంట్ సృష్టికర్తల హక్కుల పట్ల నిర్లక్ష్యాన్ని మరియు అనుమతి లేకుండా ఆన్‌లైన్ సమాచారాన్ని దోపిడీ చేయడానికి సంసిద్ధతను సూచిస్తుంది. ఈ ప్రవర్తన వెబ్ యొక్క పునాదులను బలహీనపరుస్తుంది, ఇది సమాచారానికి ప్రాప్యత మరియు మేధో సంపత్తి రక్షణ మధ్య సున్నితమైన సమతుల్యతపై ఆధారపడుతుంది.

గత హెచ్చరికల ప్రతిధ్వనులు

CJR అధ్యయనం యొక్క ఫలితాలు ఏకాంతం కాదు. అవి నవంబర్ 2024లో ప్రచురించబడిన మునుపటి అధ్యయనంతో ప్రతిధ్వనిస్తాయి, ఇది ChatGPT యొక్క శోధన సామర్థ్యాలపై దృష్టి సారించింది. ఆ మునుపటి పరిశోధన విశ్వసనీయమైన కానీ తప్పు ప్రతిస్పందనలు, తప్పుదోవ పట్టించే సైటేషన్‌లు మరియు విశ్వసనీయం కాని సమాచార పునరుద్ధరణ యొక్క స్థిరమైన నమూనాను వెల్లడించింది. మరో మాటలో చెప్పాలంటే, CJR గుర్తించిన సమస్యలు కొత్తవి కావు; అవి నిరంతరంగా మరియు వ్యవస్థాగతంగా ఉన్నాయి.

నమ్మకం మరియు ఏజెన్సీ యొక్క క్షీణత

ఈ రంగంలోని నిపుణులు కొంతకాలంగా ఉత్పాదక AI యొక్క ప్రమాదాల గురించి హెచ్చరికలు చేస్తున్నారు. చిరాగ్ షా మరియు ఎమిలీ M. బెండర్ వంటి విమర్శకులు AI శోధన ఇంజిన్‌లు వినియోగదారు ఏజెన్సీని క్షీణింపజేస్తున్నాయని, సమాచార ప్రాప్యతలో పక్షపాతాలను పెంచుతున్నాయని మరియు వినియోగదారులు ఎటువంటి ప్రశ్న లేకుండా అంగీకరించే తప్పుదోవ పట్టించే లేదా విషపూరితమైన సమాధానాలను తరచుగా అందిస్తున్నాయని ఆందోళన వ్యక్తం చేశారు.

ప్రధాన సమస్య ఏమిటంటే, ఈ AI నమూనాలు తప్పుగా ఉన్నప్పటికీ, అధికారికంగా ధ్వనించేలా రూపొందించబడ్డాయి. అవి విస్తారమైన టెక్స్ట్ మరియు కోడ్ డేటాసెట్‌లపై శిక్షణ పొందాయి మరియు అవి మానవ భాషను అద్భుతమైన అనర్గళంగా అనుకరించే ప్రతిస్పందనలను ఉత్పత్తి చేయగలవు. అయితే ఈ అనర్గళత మోసపూరితమైనది. ఇది అంతర్లీన సమాచారం లోపభూయిష్టంగా, కల్పితంగా లేదా తప్పుగా ఉందనే వాస్తవాన్ని కప్పిపుచ్చగలదు.

తప్పుడు సమాచారం యొక్క మెకానిక్స్

CJR అధ్యయనంలో 1,600 ప్రశ్నల యొక్క వివరణాత్మక విశ్లేషణ ఉంది, ఇది విభిన్న ఉత్పాదక AI శోధన నమూనాలు సమాచారాన్ని ఎలా తిరిగి పొందాయో పోల్చడానికి రూపొందించబడింది. పరిశోధకులు ముఖ్యాంశాలు, ప్రచురణకర్తలు, ప్రచురణ తేదీలు మరియు URLలు వంటి కీలక అంశాలపై దృష్టి సారించారు. వారు ChatGPT శోధన, Microsoft CoPilot, DeepSeek శోధన, Perplexity (మరియు దాని ప్రో వెర్షన్), xAI యొక్క Grok-2 మరియు Grok-3 శోధన మరియు Google Geminiతో సహా అనేక రకాల నమూనాలను పరీక్షించారు.

పరీక్షా పద్దతి కఠినమైనది. పరిశోధకులు 20 విభిన్న ప్రచురణకర్తల నుండి తీసుకోబడిన పది యాదృచ్ఛికంగా ఎంచుకున్న కథనాల నుండి ప్రత్యక్ష సారాంశాలను ఉపయోగించారు. ఈ విధానం ప్రశ్నలు వాస్తవ-ప్రపంచ కంటెంట్ ఆధారంగా ఉన్నాయని మరియు నమూనాలు ఆ కంటెంట్‌ను ఖచ్చితంగా తిరిగి పొందగల మరియు ప్రాతినిధ్యం వహించే సామర్థ్యంపై విశ్లేషించబడుతున్నాయని నిర్ధారించింది.

ఫలితాలు, ముందుగా వివరించినట్లుగా, AI-ఆధారిత శోధన యొక్క స్థితి యొక్క చీకటి చిత్రాన్ని చిత్రీకరిస్తాయి. సమాచారానికి మన ప్రాథమిక గేట్‌వేలుగా మారుతున్న సాధనాలు నిరూపితంగా విశ్వసనీయం కానివి, కల్పనకు గురయ్యేవి మరియు తరచుగా అవి ఆధారపడే మూలాల పట్ల అగౌరవంగా ఉంటాయి.

సమాచారం యొక్క భవిష్యత్తు కోసం చిక్కులు

ఈ విస్తృతమైన తప్పుడు సమాచారం యొక్క చిక్కులు లోతైనవి. సమాచారాన్ని కనుగొనడానికి మనం ఉపయోగించే సాధనాలను మనం విశ్వసించలేకపోతే, మనం సమాచారంతో కూడిన నిర్ణయాలు ఎలా తీసుకోగలం? అర్థవంతమైన చర్చలో మనం ఎలా పాల్గొనగలం? మనం అధికారాన్ని ఎలా జవాబుదారీగా ఉంచగలం?

AI-ఆధారిత శోధన యొక్క పెరుగుదల, దాని స్వాభావిక లోపాలు మరియు పక్షపాతాలతో, మన సమాచార పర్యావరణ వ్యవస్థ యొక్క ఫాబ్రిక్‌కు గణనీయమైన ముప్పును కలిగిస్తుంది. ఇది వార్తా సంస్థలు, పరిశోధకులు మరియు ఇతర కంటెంట్ సృష్టికర్తల విశ్వసనీయతను బలహీనపరుస్తుంది. ఇది సంస్థలపై ప్రజల నమ్మకాన్ని క్షీణింపజేస్తుంది. మరియు ఇది తప్పుడు సమాచారాన్ని వ్యాప్తి చేయడానికి మరియు ప్రజాభిప్రాయాన్ని మార్చడానికి ప్రయత్నించే వారికి అధికారం ఇస్తుంది.

మన ముందున్న సవాలు కేవలం AI శోధన ఇంజిన్‌ల యొక్క ఖచ్చితత్వాన్ని మెరుగుపరచడం మాత్రమే కాదు. డిజిటల్ యుగంలో సమాచారం కోసం శోధనను మనం ఎలా చేరుకోవాలో ప్రాథమికంగా పునఃపరిశీలించడం. మనం పారదర్శకత, జవాబుదారీతనం మరియు సమాచార మూలాల పట్ల గౌరవానికి ప్రాధాన్యత ఇవ్వాలి. ఆన్‌లైన్‌లో వారు ఎదుర్కొనే సమాచారాన్ని విమర్శనాత్మకంగా విశ్లేషించడానికి వినియోగదారులకు అధికారం ఇచ్చే సాధనాలు మరియు వ్యూహాలను మనం అభివృద్ధి చేయాలి. మరియు మనం సంశయవాదం మరియు విమర్శనాత్మక ఆలోచన యొక్క సంస్కృతిని పెంపొందించాలి, ఇక్కడ మనం కేవలం సమాచారాన్ని నిష్క్రియాత్మకంగా స్వీకరించేవారు మాత్రమే కాదు, సత్యం కోసం అన్వేషణలో చురుకైన భాగస్వాములు. సమాచార చర్చ యొక్క భవిష్యత్తు, మరియు బహుశా ప్రజాస్వామ్యం కూడా దానిపై ఆధారపడి ఉంటుంది.


AI-ఆధారిత శోధనలో తప్పుడు సమాచారం యొక్క సంక్షోభం కేవలం సాంకేతిక సమస్య మాత్రమే కాదు; ఇది సామాజికమైనది. ఇది ఇంజనీర్లు మరియు డెవలపర్‌లతో పాటు జర్నలిస్టులు, విద్యావేత్తలు, విధాన రూపకర్తలు మరియు ప్రజలందరినీ కలిగి ఉన్న బహుముఖ ప్రతిస్పందనను కోరుతుంది. మనం సమిష్టిగా మరింత విశ్వసనీయమైన, నమ్మదగిన మరియు పారదర్శకమైన సమాచార పర్యావరణ వ్యవస్థను నిర్మించడానికి కృషి చేయాలి, ఇది అబద్ధాల సరఫరాదారుల అవసరాలకు కాకుండా సమాచార పౌరుల అవసరాలకు ఉపయోగపడుతుంది.


ప్రస్తుత పథం నిలకడలేనిది. AI శోధన ఖచ్చితత్వం మరియు సత్యం కంటే వేగం మరియు సౌలభ్యానికి ప్రాధాన్యతనిస్తూ ఉంటే, మనం తప్పుడు సమాచారం రాజ్యమేలే ప్రపంచాన్ని సృష్టించే ప్రమాదం ఉంది, మరియు ఇక్కడ ఆబ్జెక్టివ్ రియాలిటీ అనే భావన మరింత అంతుచిక్కనిదిగా మారుతుంది. ఇది జరగడానికి అనుమతించడానికి వాటాలు చాలా ఎక్కువగా ఉన్నాయి.