AI ਖੋਜ ਤੁਹਾਨੂੰ ਝੂਠ ਬੋਲ ਰਹੀ ਹੈ, ਅਤੇ ਇਹ ਵਿਗੜ ਰਿਹਾ ਹੈ

ਸ਼ੁੱਧਤਾ ਦਾ ਭਰਮ

ਖੋਜ ਇੰਜਣਾਂ ਦਾ ਮੁਢਲਾ ਵਾਅਦਾ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਭਰੋਸੇਯੋਗ ਸਰੋਤਾਂ ਨਾਲ ਜੋੜਨਾ ਸੀ। ਹੁਣ, ਇਹ ਵਾਅਦਾ ਖਤਮ ਹੋ ਰਿਹਾ ਹੈ। AI-ਸੰਚਾਲਿਤ ਖੋਜ ਸੰਦ ਤੇਜ਼ੀ ਨਾਲ ਪਦਾਰਥਾਂ ਨਾਲੋਂ ਗਤੀ ਨੂੰ ਤਰਜੀਹ ਦੇ ਰਹੇ ਹਨ, ਉਹ ਜਵਾਬ ਦੇ ਰਹੇ ਹਨ ਜੋ ਪ੍ਰਤੀਤ ਹੁੰਦੇ ਹਨ ਭਰੋਸੇਯੋਗ ਪਰ ਪ੍ਰਮਾਣਿਤ ਸਬੂਤਾਂ ਦੇ ਜ਼ਰੂਰੀ ਸਮਰਥਨ ਦੀ ਘਾਟ ਹੈ। ਅਸੀਂ ਜੋ ਦੇਖ ਰਹੇ ਹਾਂ ਉਹ ਇੱਕ ਅਜਿਹੀ ਪ੍ਰਣਾਲੀ ਤੋਂ ਤਬਦੀਲੀ ਹੈ ਜੋ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਭਰੋਸੇਯੋਗ ਜਾਣਕਾਰੀ ਲਈ ਮਾਰਗਦਰਸ਼ਨ ਕਰਦੀ ਹੈ, ਇੱਕ ਅਜਿਹੀ ਪ੍ਰਣਾਲੀ ਵੱਲ ਜੋ ਜਵਾਬਾਂ ਦਾ ਨਿਰਮਾਣ ਕਰਦੀ ਹੈ, ਅਕਸਰ ਉਹਨਾਂ ਦੀ ਸੱਚਾਈ ਦੀ ਪਰਵਾਹ ਕੀਤੇ ਬਿਨਾਂ।

ਇਹ ਸਿਰਫ਼ ਕਦੇ-ਕਦਾਈਂ ਹੋਣ ਵਾਲੀਆਂ ਗਲਤੀਆਂ ਦਾ ਮਾਮਲਾ ਨਹੀਂ ਹੈ। ਇਹ ਇੱਕ ਪ੍ਰਣਾਲੀਗਤ ਸਮੱਸਿਆ ਹੈ। CJR ਅਧਿਐਨ ਦੱਸਦਾ ਹੈ ਕਿ AI ਖੋਜ ਇੰਜਣ ਸਿਰਫ਼ ਗਲਤੀਆਂ ਹੀ ਨਹੀਂ ਕਰ ਰਹੇ ਹਨ; ਉਹ ਸਰਗਰਮੀ ਨਾਲ ਪ੍ਰਮਾਣਿਤ ਸਰੋਤਾਂ ਤੋਂ ਤਲਾਕਸ਼ੁਦਾ ਹਕੀਕਤ ਦਾ ਨਿਰਮਾਣ ਕਰ ਰਹੇ ਹਨ। ਉਹ ਵੈੱਬ ਭਰ ਤੋਂ ਸਮੱਗਰੀ ਨੂੰ ਖੁਰਚ ਰਹੇ ਹਨ, ਪਰ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਅਸਲ ਸਰੋਤਾਂ—ਉਨ੍ਹਾਂ ਵੈੱਬਸਾਈਟਾਂ ਵੱਲ ਸੇਧਿਤ ਕਰਨ ਦੀ ਬਜਾਏ ਜੋ ਜਾਣਕਾਰੀ ਨੂੰ ਮਿਹਨਤ ਨਾਲ ਤਿਆਰ ਕਰਦੇ ਹਨ ਅਤੇ ਪ੍ਰਕਾਸ਼ਿਤ ਕਰਦੇ ਹਨ—ਉਹ ਤੁਰੰਤ, ਅਕਸਰ ਮਨਘੜਤ, ਜਵਾਬ ਪ੍ਰਦਾਨ ਕਰ ਰਹੇ ਹਨ।

ਟ੍ਰੈਫਿਕ ਡਰੇਨ ਅਤੇ ਫੈਂਟਮ ਹਵਾਲੇ

ਇਸ ਪਹੁੰਚ ਦੇ ਨਤੀਜੇ ਦੂਰਗਾਮੀ ਹਨ। ਤਤਕਾਲ ਪ੍ਰਭਾਵ ਜਾਣਕਾਰੀ ਦੇ ਅਸਲ ਸਰੋਤਾਂ ‘ਤੇ ਟ੍ਰੈਫਿਕ ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਕਮੀ ਹੈ। ਵੈੱਬਸਾਈਟਾਂ, ਨਿਊਜ਼ ਸੰਸਥਾਵਾਂ, ਅਤੇ ਖੋਜਕਰਤਾ ਜੋ ਸਮੱਗਰੀ ਬਣਾਉਣ ਵਿੱਚ ਸਮਾਂ ਅਤੇ ਸਰੋਤਾਂ ਦਾ ਨਿਵੇਸ਼ ਕਰਦੇ ਹਨ, ਆਪਣੇ ਆਪ ਨੂੰ ਬਾਈਪਾਸ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ। ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਆਪਣੇ ਜਵਾਬ ਸਿੱਧੇ AI ਤੋਂ ਮਿਲ ਰਹੇ ਹਨ, ਉਹਨਾਂ ਸਾਈਟਾਂ ‘ਤੇ ਜਾਣ ਦੀ ਕੋਈ ਲੋੜ ਨਹੀਂ ਜਿੱਥੋਂ ਜਾਣਕਾਰੀ ਸ਼ੁਰੂ ਹੋਈ ਸੀ।

ਇੱਕ ਵੱਖਰਾ ਅਧਿਐਨ ਇਸ ਚਿੰਤਾਜਨਕ ਰੁਝਾਨ ਦੀ ਪੁਸ਼ਟੀ ਕਰਦਾ ਹੈ, ਇਹ ਪਤਾ ਲਗਾਉਂਦਾ ਹੈ ਕਿ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੇ ਖੋਜ ਨਤੀਜਿਆਂ ਅਤੇ ਚੈਟਬੋਟਸ ਤੋਂ ਕਲਿੱਕ-ਥਰੂ ਦਰਾਂ Google ਵਰਗੇ ਰਵਾਇਤੀ ਖੋਜ ਇੰਜਣਾਂ ਨਾਲੋਂ ਕਾਫ਼ੀ ਘੱਟ ਹਨ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਔਨਲਾਈਨ ਸਮੱਗਰੀ ਦੀ ਜੀਵਨ ਰੇਖਾ—ਇੱਕ ਦਰਸ਼ਕਾਂ ਤੱਕ ਪਹੁੰਚਣ ਦੀ ਯੋਗਤਾ—ਹੌਲੀ-ਹੌਲੀ ਦਮ ਤੋੜ ਰਹੀ ਹੈ।

ਪਰ ਸਮੱਸਿਆ ਹੋਰ ਵੀ ਡੂੰਘੀ ਹੈ। ਇਹ AI ਟੂਲ ਸਿਰਫ਼ ਸਰੋਤਾਂ ਨੂੰ ਕ੍ਰੈਡਿਟ ਦੇਣ ਵਿੱਚ ਅਸਫਲ ਨਹੀਂ ਹੋ ਰਹੇ ਹਨ; ਉਹ ਅਕਸਰ ਫੈਂਟਮ ਹਵਾਲੇ ਬਣਾ ਰਹੇ ਹਨ। ਉਹ ਗੈਰ-ਮੌਜੂਦ ਵੈਬਪੰਨਿਆਂ, ਜਾਂ ਉਹਨਾਂ URL ਦੇ ਲਿੰਕ ਤਿਆਰ ਕਰ ਰਹੇ ਹਨ ਜੋ ਟੁੱਟੇ ਹੋਏ ਹਨ ਜਾਂ ਅਪ੍ਰਸੰਗਿਕ ਹਨ। ਇਹ ਇੱਕ ਵਿਦਿਆਰਥੀ ਦੇ ਇੱਕ ਖੋਜ ਪੱਤਰ ਲਿਖਣ ਅਤੇ ਉਹਨਾਂ ਦੇ ਦਾਅਵਿਆਂ ਦਾ ਸਮਰਥਨ ਕਰਨ ਲਈ ਸਰੋਤਾਂ ਦੀ ਕਾਢ ਕੱਢਣ ਦੇ ਸਮਾਨ ਹੈ। ਇਹ ਸਿਰਫ਼ ਲਾਪਰਵਾਹੀ ਨਹੀਂ ਹੈ; ਇਹ ਬੌਧਿਕ ਇਮਾਨਦਾਰੀ ਦੀ ਬੁਨਿਆਦੀ ਉਲੰਘਣਾ ਹੈ।

ਧੋਖੇ ਵਿੱਚ ਇੱਕ ਡੂੰਘੀ ਗੋਤਾਖੋਰੀ

CJR ਅਧਿਐਨ ਨੇ ਕਈ ਪ੍ਰਮੁੱਖ AI ਖੋਜ ਮਾਡਲਾਂ ਦੇ ਪ੍ਰਦਰਸ਼ਨ ਦਾ ਬਾਰੀਕੀ ਨਾਲ ਵਿਸ਼ਲੇਸ਼ਣ ਕੀਤਾ। ਖੋਜਾਂ ਡੂੰਘੀਆਂ ਪ੍ਰੇਸ਼ਾਨ ਕਰਨ ਵਾਲੀਆਂ ਹਨ। Google ਦੇ Gemini ਅਤੇ xAI ਦੇ Grok 3 ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੇ ਗਏ ਅੱਧੇ ਤੋਂ ਵੱਧ ਹਵਾਲੇ—AI ਖੋਜ ਲੈਂਡਸਕੇਪ ਵਿੱਚ ਦੋ ਪ੍ਰਮੁੱਖ ਖਿਡਾਰੀ—ਮਨਘੜਤ ਜਾਂ ਪਹੁੰਚਯੋਗ ਵੈਬਪੰਨਿਆਂ ਵੱਲ ਲੈ ਜਾਂਦੇ ਹਨ। ਇਹ ਕੋਈ ਮਾਮੂਲੀ ਖਰਾਬੀ ਨਹੀਂ ਹੈ; ਇਹ ਇੱਕ ਪ੍ਰਣਾਲੀਗਤ ਅਸਫਲਤਾ ਹੈ।

ਅਤੇ ਸਮੱਸਿਆ ਹਵਾਲਿਆਂ ਤੋਂ ਅੱਗੇ ਵਧਦੀ ਹੈ। ਆਮ ਤੌਰ ‘ਤੇ, ਚੈਟਬੋਟਸ ਨੂੰ 60% ਤੋਂ ਵੱਧ ਮਾਮਲਿਆਂ ਵਿੱਚ ਗਲਤ ਜਾਣਕਾਰੀ ਪ੍ਰਦਾਨ ਕਰਦੇ ਪਾਇਆ ਗਿਆ। ਮੁਲਾਂਕਣ ਕੀਤੇ ਗਏ ਮਾਡਲਾਂ ਵਿੱਚੋਂ, Grok 3 ਸਭ ਤੋਂ ਭੈੜੇ ਅਪਰਾਧੀ ਵਜੋਂ ਸਾਹਮਣੇ ਆਇਆ, ਜਿਸ ਦੇ 94% ਜਵਾਬਾਂ ਵਿੱਚ ਹੈਰਾਨ ਕਰਨ ਵਾਲੀਆਂ ਗਲਤੀਆਂ ਸਨ। Gemini, ਥੋੜ੍ਹਾ ਬਿਹਤਰ ਪ੍ਰਦਰਸ਼ਨ ਕਰਦੇ ਹੋਏ, ਫਿਰ ਵੀ ਹਰ ਦਸ ਕੋਸ਼ਿਸ਼ਾਂ ਵਿੱਚੋਂ ਸਿਰਫ਼ ਇੱਕ ਵਾਰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸਹੀ ਜਵਾਬ ਦੇਣ ਵਿੱਚ ਕਾਮਯਾਬ ਰਿਹਾ। ਇੱਥੋਂ ਤੱਕ ਕਿ Perplexity, ਜੋ ਕਿ ਟੈਸਟ ਕੀਤੇ ਗਏ ਮਾਡਲਾਂ ਵਿੱਚੋਂ ਸਭ ਤੋਂ ਸਹੀ ਵਜੋਂ ਉਭਰਿਆ, ਫਿਰ ਵੀ 37% ਵਾਰ ਗਲਤ ਜਵਾਬ ਵਾਪਸ ਕਰਦਾ ਹੈ।

ਇਹ ਅੰਕੜੇ ਸਿਰਫ਼ ਅੰਕੜੇ ਨਹੀਂ ਹਨ; ਉਹ ਜਾਣਕਾਰੀ ਦੀ ਭਰੋਸੇਯੋਗਤਾ ਵਿੱਚ ਇੱਕ ਬੁਨਿਆਦੀ ਟੁੱਟਣ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ। ਉਹ ਸੁਝਾਅ ਦਿੰਦੇ ਹਨ ਕਿ ਉਹ ਟੂਲ ਜੋ ਸਾਨੂੰ ਡਿਜੀਟਲ ਸੰਸਾਰ ਦੀਆਂ ਜਟਿਲਤਾਵਾਂ ਨੂੰ ਨੈਵੀਗੇਟ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤੇ ਗਏ ਹਨ, ਅਸਲ ਵਿੱਚ, ਸਾਨੂੰ ਗੁੰਮਰਾਹ ਕਰ ਰਹੇ ਹਨ।

ਨਿਯਮਾਂ ਨੂੰ ਅਣਡਿੱਠ ਕਰਨਾ: ਰੋਬੋਟ ਬੇਦਖਲੀ ਪ੍ਰੋਟੋਕੋਲ

ਅਧਿਐਨ ਦੇ ਲੇਖਕਾਂ ਨੇ ਇਸ AI-ਸੰਚਾਲਿਤ ਧੋਖੇ ਦੇ ਇੱਕ ਹੋਰ ਪ੍ਰੇਸ਼ਾਨ ਕਰਨ ਵਾਲੇ ਪਹਿਲੂ ਦਾ ਪਤਾ ਲਗਾਇਆ। ਕਈ AI ਮਾਡਲ ਜਾਣਬੁੱਝ ਕੇ ਰੋਬੋਟ ਬੇਦਖਲੀ ਪ੍ਰੋਟੋਕੋਲ ਦੀ ਅਣਦੇਖੀ ਕਰਦੇ ਦਿਖਾਈ ਦਿੱਤੇ। ਇਹ ਪ੍ਰੋਟੋਕੋਲ ਇੱਕ ਮਿਆਰੀ, ਵਿਆਪਕ ਤੌਰ ‘ਤੇ ਅਪਣਾਇਆ ਗਿਆ ਵਿਧੀ ਹੈ ਜੋ ਵੈੱਬਸਾਈਟਾਂ ਨੂੰ ਇਹ ਨਿਯੰਤਰਿਤ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦਾ ਹੈ ਕਿ ਉਹਨਾਂ ਦੀ ਸਾਈਟ ਦੇ ਕਿਹੜੇ ਹਿੱਸਿਆਂ ਨੂੰ ਸਵੈਚਲਿਤ ਬੋਟਾਂ ਦੁਆਰਾ ਐਕਸੈਸ ਅਤੇ ਸਕ੍ਰੈਪ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਇਹ ਵੈੱਬਸਾਈਟਾਂ ਲਈ ਆਪਣੀ ਸਮੱਗਰੀ ਦੀ ਸੁਰੱਖਿਆ ਕਰਨ ਅਤੇ ਇਹ ਪ੍ਰਬੰਧਿਤ ਕਰਨ ਦਾ ਇੱਕ ਤਰੀਕਾ ਹੈ ਕਿ ਇਸਦੀ ਵਰਤੋਂ ਕਿਵੇਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ।

ਇਹ ਤੱਥ ਕਿ AI ਖੋਜ ਇੰਜਣ ਇਸ ਪ੍ਰੋਟੋਕੋਲ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰ ਰਹੇ ਹਨ, ਗੰਭੀਰ ਨੈਤਿਕ ਸਵਾਲ ਖੜ੍ਹੇ ਕਰਦੇ ਹਨ। ਇਹ ਸਮੱਗਰੀ ਸਿਰਜਣਹਾਰਾਂ ਦੇ ਅਧਿਕਾਰਾਂ ਦੀ ਅਣਦੇਖੀ ਅਤੇ ਬਿਨਾਂ ਇਜਾਜ਼ਤ ਦੇ ਔਨਲਾਈਨ ਜਾਣਕਾਰੀ ਦਾ ਸ਼ੋਸ਼ਣ ਕਰਨ ਦੀ ਇੱਛਾ ਦਾ ਸੁਝਾਅ ਦਿੰਦਾ ਹੈ। ਇਹ ਵਿਵਹਾਰ ਵੈੱਬ ਦੀਆਂ ਬੁਨਿਆਦਾਂ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰਦਾ ਹੈ, ਜੋ ਜਾਣਕਾਰੀ ਤੱਕ ਪਹੁੰਚ ਅਤੇ ਬੌਧਿਕ ਸੰਪਤੀ ਦੀ ਸੁਰੱਖਿਆ ਵਿਚਕਾਰ ਇੱਕ ਨਾਜ਼ੁਕ ਸੰਤੁਲਨ ‘ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ।

ਪਿਛਲੀਆਂ ਚੇਤਾਵਨੀਆਂ ਦੀਆਂ ਗੂੰਜਾਂ

CJR ਅਧਿਐਨ ਦੀਆਂ ਖੋਜਾਂ ਅਲੱਗ-ਥਲੱਗ ਨਹੀਂ ਹਨ। ਉਹ ਨਵੰਬਰ 2024 ਵਿੱਚ ਪ੍ਰਕਾਸ਼ਿਤ ਇੱਕ ਪਿਛਲੇ ਅਧਿਐਨ ਨਾਲ ਗੂੰਜਦੇ ਹਨ, ਜਿਸ ਨੇ ChatGPT ਦੀਆਂ ਖੋਜ ਸਮਰੱਥਾਵਾਂ ‘ਤੇ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕੀਤਾ ਸੀ। ਉਸ ਪੁਰਾਣੀ ਜਾਂਚ ਨੇ ਭਰੋਸੇਮੰਦ ਪਰ ਗਲਤ ਜਵਾਬਾਂ, ਗੁੰਮਰਾਹਕੁੰਨ ਹਵਾਲਿਆਂ, ਅਤੇ ਅਵਿਸ਼ਵਾਸੀ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤੀ ਦਾ ਇੱਕ ਇਕਸਾਰ ਪੈਟਰਨ ਪ੍ਰਗਟ ਕੀਤਾ। ਦੂਜੇ ਸ਼ਬਦਾਂ ਵਿੱਚ, CJR ਦੁਆਰਾ ਪਛਾਣੀਆਂ ਗਈਆਂ ਸਮੱਸਿਆਵਾਂ ਨਵੀਆਂ ਨਹੀਂ ਹਨ; ਉਹ ਲਗਾਤਾਰ ਅਤੇ ਪ੍ਰਣਾਲੀਗਤ ਹਨ।

ਵਿਸ਼ਵਾਸ ਅਤੇ ਏਜੰਸੀ ਦਾ ਕਟੌਤੀ

ਖੇਤਰ ਦੇ ਮਾਹਰ ਕੁਝ ਸਮੇਂ ਤੋਂ ਉਤਪਾਦਕ AI ਦੇ ਖ਼ਤਰਿਆਂ ਬਾਰੇ ਅਲਾਰਮ ਵਜਾ ਰਹੇ ਹਨ। ਚਿਰਾਗ ਸ਼ਾਹ ਅਤੇ ਐਮਿਲੀ ਐਮ. ਬੈਂਡਰ ਵਰਗੇ ਆਲੋਚਕਾਂ ਨੇ ਚਿੰਤਾਵਾਂ ਜ਼ਾਹਰ ਕੀਤੀਆਂ ਹਨ ਕਿ AI ਖੋਜ ਇੰਜਣ ਉਪਭੋਗਤਾ ਏਜੰਸੀ ਨੂੰ ਖਤਮ ਕਰ ਰਹੇ ਹਨ, ਜਾਣਕਾਰੀ ਤੱਕ ਪਹੁੰਚ ਵਿੱਚ ਪੱਖਪਾਤ ਨੂੰ ਵਧਾ ਰਹੇ ਹਨ, ਅਤੇ ਅਕਸਰ ਗੁੰਮਰਾਹਕੁੰਨ ਜਾਂ ਇੱਥੋਂ ਤੱਕ ਕਿ ਜ਼ਹਿਰੀਲੇ ਜਵਾਬ ਪੇਸ਼ਕਰ ਰਹੇ ਹਨ ਜਿਨ੍ਹਾਂ ਨੂੰ ਉਪਭੋਗਤਾ ਬਿਨਾਂ ਸਵਾਲ ਦੇ ਸਵੀਕਾਰ ਕਰ ਸਕਦੇ ਹਨ।

ਮੂਲ ਮੁੱਦਾ ਇਹ ਹੈ ਕਿ ਇਹ AI ਮਾਡਲ ਆਵਾਜ਼ ਨੂੰ ਅਧਿਕਾਰਤ ਬਣਾਉਣ ਲਈ ਤਿਆਰ ਕੀਤੇ ਗਏ ਹਨ, ਭਾਵੇਂ ਉਹ ਗਲਤ ਹੋਣ। ਉਹਨਾਂ ਨੂੰ ਟੈਕਸਟ ਅਤੇ ਕੋਡ ਦੇ ਵਿਸ਼ਾਲ ਡੇਟਾਸੈਟਾਂ ‘ਤੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ, ਅਤੇ ਉਹ ਅਜਿਹੇ ਜਵਾਬ ਤਿਆਰ ਕਰਨ ਦੇ ਸਮਰੱਥ ਹੁੰਦੇ ਹਨ ਜੋ ਕਮਾਲ ਦੀ ਰਵਾਨਗੀ ਨਾਲ ਮਨੁੱਖੀ ਭਾਸ਼ਾ ਦੀ ਨਕਲ ਕਰਦੇ ਹਨ। ਪਰ ਇਹ ਰਵਾਨਗੀ ਧੋਖੇ ਵਾਲੀ ਹੋ ਸਕਦੀ ਹੈ। ਇਹ ਇਸ ਤੱਥ ਨੂੰ ਲੁਕਾ ਸਕਦਾ ਹੈ ਕਿ ਅੰਡਰਲਾਈੰਗ ਜਾਣਕਾਰੀ ਨੁਕਸਦਾਰ, ਮਨਘੜਤ, ਜਾਂ ਸਿਰਫ਼ ਗਲਤ ਹੈ।

ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਮਕੈਨਿਕ

CJR ਅਧਿਐਨ ਵਿੱਚ 1,600 ਸਵਾਲਾਂ ਦਾ ਇੱਕ ਵਿਸਤ੍ਰਿਤ ਵਿਸ਼ਲੇਸ਼ਣ ਸ਼ਾਮਲ ਹੈ, ਜੋ ਕਿ ਇਹ ਤੁਲਨਾ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ ਕਿ ਵੱਖ-ਵੱਖ ਉਤਪਾਦਕ AI ਖੋਜ ਮਾਡਲਾਂ ਨੇ ਜਾਣਕਾਰੀ ਕਿਵੇਂ ਪ੍ਰਾਪਤ ਕੀਤੀ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਮੁੱਖ ਤੱਤਾਂ ਜਿਵੇਂ ਕਿ ਸੁਰਖੀਆਂ, ਪ੍ਰਕਾਸ਼ਕਾਂ, ਪ੍ਰਕਾਸ਼ਨ ਮਿਤੀਆਂ ਅਤੇ URL ‘ਤੇ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕੀਤਾ। ਉਹਨਾਂ ਨੇ ChatGPT ਖੋਜ, Microsoft CoPilot, DeepSeek ਖੋਜ, Perplexity (ਅਤੇ ਇਸਦਾ ਪ੍ਰੋ ਸੰਸਕਰਣ), xAI ਦੇ Grok-2 ਅਤੇ Grok-3 ਖੋਜ, ਅਤੇ Google Gemini ਸਮੇਤ ਕਈ ਮਾਡਲਾਂ ਦੀ ਜਾਂਚ ਕੀਤੀ।

ਟੈਸਟਿੰਗ ਵਿਧੀ ਸਖ਼ਤ ਸੀ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ 20 ਵੱਖ-ਵੱਖ ਪ੍ਰਕਾਸ਼ਕਾਂ ਤੋਂ ਪ੍ਰਾਪਤ ਕੀਤੇ ਗਏ, 10 ਬੇਤਰਤੀਬੇ ਚੁਣੇ ਗਏ ਲੇਖਾਂ ਦੇ ਸਿੱਧੇ ਅੰਸ਼ਾਂ ਦੀ ਵਰਤੋਂ ਕੀਤੀ। ਇਸ ਪਹੁੰਚ ਨੇ ਇਹ ਯਕੀਨੀ ਬਣਾਇਆ ਕਿ ਸਵਾਲ ਅਸਲ-ਸੰਸਾਰ ਦੀ ਸਮੱਗਰੀ ‘ਤੇ ਆਧਾਰਿਤ ਸਨ ਅਤੇ ਇਹ ਕਿ ਮਾਡਲਾਂ ਦਾ ਮੁਲਾਂਕਣ ਉਹਨਾਂ ਦੀ ਸਮੱਗਰੀ ਨੂੰ ਸਹੀ ਢੰਗ ਨਾਲ ਪ੍ਰਾਪਤ ਕਰਨ ਅਤੇ ਪ੍ਰਸਤੁਤ ਕਰਨ ਦੀ ਯੋਗਤਾ ‘ਤੇ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ।

ਨਤੀਜੇ, ਜਿਵੇਂ ਕਿ ਪਹਿਲਾਂ ਦੱਸਿਆ ਗਿਆ ਹੈ, AI-ਸੰਚਾਲਿਤ ਖੋਜ ਦੀ ਸਥਿਤੀ ਦੀ ਇੱਕ ਗੰਭੀਰ ਤਸਵੀਰ ਪੇਂਟ ਕਰਦੇ ਹਨ। ਉਹ ਟੂਲ ਜੋ ਤੇਜ਼ੀ ਨਾਲ ਜਾਣਕਾਰੀ ਲਈ ਸਾਡੇ ਪ੍ਰਾਇਮਰੀ ਗੇਟਵੇ ਬਣ ਰਹੇ ਹਨ, ਪ੍ਰਦਰਸ਼ਿਤ ਤੌਰ ‘ਤੇ ਅਵਿਸ਼ਵਾਸੀ ਹਨ, ਮਨਘੜਤ ਹੋਣ ਦੀ ਸੰਭਾਵਨਾ ਹੈ, ਅਤੇ ਅਕਸਰ ਉਹਨਾਂ ਸਰੋਤਾਂ ਦਾ ਅਨਾਦਰ ਕਰਦੇ ਹਨ ਜਿਨ੍ਹਾਂ ‘ਤੇ ਉਹ ਨਿਰਭਰ ਕਰਦੇ ਹਨ।

ਜਾਣਕਾਰੀ ਦੇ ਭਵਿੱਖ ਲਈ ਪ੍ਰਭਾਵ

ਇਸ ਵਿਆਪਕ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਪ੍ਰਭਾਵ ਡੂੰਘੇ ਹਨ। ਜੇਕਰ ਅਸੀਂ ਉਹਨਾਂ ਸਾਧਨਾਂ ‘ਤੇ ਭਰੋਸਾ ਨਹੀਂ ਕਰ ਸਕਦੇ ਜੋ ਅਸੀਂ ਜਾਣਕਾਰੀ ਲੱਭਣ ਲਈ ਵਰਤਦੇ ਹਾਂ, ਤਾਂ ਅਸੀਂ ਸੂਝਵਾਨ ਫੈਸਲੇ ਕਿਵੇਂ ਲੈ ਸਕਦੇ ਹਾਂ? ਅਸੀਂ ਅਰਥਪੂਰਨ ਬਹਿਸ ਵਿੱਚ ਕਿਵੇਂ ਸ਼ਾਮਲ ਹੋ ਸਕਦੇ ਹਾਂ? ਅਸੀਂ ਸ਼ਕਤੀ ਨੂੰ ਜਵਾਬਦੇਹ ਕਿਵੇਂ ਬਣਾ ਸਕਦੇ ਹਾਂ?

AI-ਸੰਚਾਲਿਤ ਖੋਜ ਦਾ ਵਾਧਾ, ਇਸ ਦੀਆਂ ਅੰਦਰੂਨੀ ਕਮੀਆਂ ਅਤੇ ਪੱਖਪਾਤਾਂ ਦੇ ਨਾਲ, ਸਾਡੇ ਜਾਣਕਾਰੀ ਈਕੋਸਿਸਟਮ ਦੇ ਤਾਣੇ-ਬਾਣੇ ਲਈ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਖ਼ਤਰਾ ਹੈ। ਇਹ ਨਿਊਜ਼ ਸੰਸਥਾਵਾਂ, ਖੋਜਕਰਤਾਵਾਂ ਅਤੇ ਹੋਰ ਸਮੱਗਰੀ ਸਿਰਜਣਹਾਰਾਂ ਦੀ ਭਰੋਸੇਯੋਗਤਾ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰਦਾ ਹੈ। ਇਹ ਸੰਸਥਾਵਾਂ ਵਿੱਚ ਜਨਤਕ ਵਿਸ਼ਵਾਸ ਨੂੰ ਖਤਮ ਕਰਦਾ ਹੈ। ਅਤੇ ਇਹ ਉਹਨਾਂ ਲੋਕਾਂ ਨੂੰ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ ਜੋ ਗਲਤ ਜਾਣਕਾਰੀ ਫੈਲਾਉਣ ਅਤੇ ਜਨਤਕ ਰਾਏ ਵਿੱਚ ਹੇਰਾਫੇਰੀ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਦੇ ਹਨ।

ਸਾਡੇ ਸਾਹਮਣੇ ਚੁਣੌਤੀ ਸਿਰਫ਼ AI ਖੋਜ ਇੰਜਣਾਂ ਦੀ ਸ਼ੁੱਧਤਾ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਦੀ ਨਹੀਂ ਹੈ। ਇਹ ਡਿਜੀਟਲ ਯੁੱਗ ਵਿੱਚ ਜਾਣਕਾਰੀ ਦੀ ਖੋਜ ਲਈ ਸਾਡੇ ਦੁਆਰਾ ਅਪਣਾਏ ਗਏ ਤਰੀਕੇ ‘ਤੇ ਬੁਨਿਆਦੀ ਤੌਰ ‘ਤੇ ਮੁੜ ਵਿਚਾਰ ਕਰਨਾ ਹੈ। ਸਾਨੂੰ ਪਾਰਦਰਸ਼ਤਾ, ਜਵਾਬਦੇਹੀ, ਅਤੇ ਜਾਣਕਾਰੀ ਦੇ ਸਰੋਤਾਂ ਲਈ ਸਨਮਾਨ ਨੂੰ ਤਰਜੀਹ ਦੇਣ ਦੀ ਲੋੜ ਹੈ। ਸਾਨੂੰ ਅਜਿਹੇ ਟੂਲ ਅਤੇ ਰਣਨੀਤੀਆਂ ਵਿਕਸਿਤ ਕਰਨ ਦੀ ਲੋੜ ਹੈ ਜੋ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਉਹਨਾਂ ਦੁਆਰਾ ਔਨਲਾਈਨ ਆਉਣ ਵਾਲੀ ਜਾਣਕਾਰੀ ਦਾ ਆਲੋਚਨਾਤਮਕ ਮੁਲਾਂਕਣ ਕਰਨ ਲਈ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਨ। ਅਤੇ ਸਾਨੂੰ ਸ਼ੰਕਾਵਾਦ ਅਤੇ ਆਲੋਚਨਾਤਮਕ ਸੋਚ ਦੇ ਇੱਕ ਸੱਭਿਆਚਾਰ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨ ਦੀ ਲੋੜ ਹੈ, ਜਿੱਥੇ ਅਸੀਂ ਸਿਰਫ਼ ਜਾਣਕਾਰੀ ਦੇ ਪੈਸਿਵ ਪ੍ਰਾਪਤਕਰਤਾ ਨਹੀਂ ਹਾਂ, ਸਗੋਂ ਸੱਚ ਦੀ ਭਾਲ ਵਿੱਚ ਸਰਗਰਮ ਭਾਗੀਦਾਰ ਹਾਂ। ਸੂਝਵਾਨ ਭਾਸ਼ਣ ਦਾ ਭਵਿੱਖ, ਅਤੇ ਸ਼ਾਇਦ ਲੋਕਤੰਤਰ ਵੀ, ਇਸ ‘ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ।


AI-ਸੰਚਾਲਿਤ ਖੋਜ ਵਿੱਚ ਗਲਤ ਜਾਣਕਾਰੀ ਦਾ ਸੰਕਟ ਸਿਰਫ਼ ਇੱਕ ਤਕਨੀਕੀ ਸਮੱਸਿਆ ਨਹੀਂ ਹੈ; ਇਹ ਇੱਕ ਸਮਾਜਿਕ ਸਮੱਸਿਆ ਹੈ। ਇਹ ਇੱਕ ਬਹੁਪੱਖੀ ਜਵਾਬ ਦੀ ਮੰਗ ਕਰਦਾ ਹੈ, ਜਿਸ ਵਿੱਚ ਨਾ ਸਿਰਫ਼ ਇੰਜੀਨੀਅਰ ਅਤੇ ਡਿਵੈਲਪਰ ਸ਼ਾਮਲ ਹਨ, ਸਗੋਂ ਪੱਤਰਕਾਰ, ਸਿੱਖਿਆ ਸ਼ਾਸਤਰੀ, ਨੀਤੀ ਨਿਰਮਾਤਾ ਅਤੇ ਵੱਡੇ ਪੱਧਰ ‘ਤੇ ਜਨਤਾ ਵੀ ਸ਼ਾਮਲ ਹੈ। ਸਾਨੂੰ ਇੱਕ ਵਧੇਰੇ ਭਰੋਸੇਯੋਗ, ਭਰੋਸੇਮੰਦ, ਅਤੇ ਪਾਰਦਰਸ਼ੀ ਜਾਣਕਾਰੀ ਈਕੋਸਿਸਟਮ ਬਣਾਉਣ ਲਈ ਸਮੂਹਿਕ ਤੌਰ ‘ਤੇ ਕੰਮ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ, ਜੋ ਕਿ ਸੂਝਵਾਨ ਨਾਗਰਿਕਾਂ ਦੀਆਂ ਲੋੜਾਂ ਪੂਰੀਆਂ ਕਰਦਾ ਹੈ, ਨਾ ਕਿ ਝੂਠ ਦੇ ਵਿਕਰੇਤਾਵਾਂ ਦੀਆਂ।


ਮੌਜੂਦਾ ਟ੍ਰੈਜੈਕਟਰੀ ਅਸਥਿਰ ਹੈ। ਜੇਕਰ AI ਖੋਜ ਸ਼ੁੱਧਤਾ ਅਤੇ ਸੱਚਾਈ ਨਾਲੋਂ ਗਤੀ ਅਤੇ ਸਹੂਲਤ ਨੂੰ ਤਰਜੀਹ ਦਿੰਦੀ ਰਹਿੰਦੀ ਹੈ, ਤਾਂ ਅਸੀਂ ਇੱਕ ਅਜਿਹੀ ਦੁਨੀਆਂ ਬਣਾਉਣ ਦਾ ਜੋਖਮ ਲੈਂਦੇ ਹਾਂ ਜਿੱਥੇ ਗਲਤ ਜਾਣਕਾਰੀ ਸਰਵਉੱਚ ਰਾਜ ਕਰਦੀ ਹੈ, ਅਤੇ ਜਿੱਥੇ ਉਦੇਸ਼ ਹਕੀਕਤ ਦੀ ਧਾਰਨਾ ਤੇਜ਼ੀ ਨਾਲ ਅਲੋਪ ਹੋ ਜਾਂਦੀ ਹੈ। ਅਜਿਹਾ ਹੋਣ ਦੇਣ ਲਈ ਦਾਅ ਬਹੁਤ ਜ਼ਿਆਦਾ ਹਨ।