X ਵਰਤੋਂਕਾਰ Grok ਨੂੰ ਤੱਥ-ਜਾਂਚਕਰਤਾ ਵਾਂਗ ਵਰਤ ਰਹੇ ਹਨ, ਗਲਤ ਜਾਣਕਾਰੀ ਬਾਰੇ ਚਿੰਤਾਵਾਂ

ਜਾਣਕਾਰੀ ਦੀ ਪੁਸ਼ਟੀ ਵਿੱਚ AI ਦਾ ਉਭਾਰ

ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਦੇ ਵਾਧੇ ਨੇ ਜਾਣਕਾਰੀ ਤੱਕ ਪਹੁੰਚ ਨੂੰ ਸੁਚਾਰੂ ਬਣਾਉਣ ਲਈ ਤਿਆਰ ਕੀਤੇ ਗਏ ਬਹੁਤ ਸਾਰੇ ਟੂਲ ਪੇਸ਼ ਕੀਤੇ ਹਨ। ਹਾਲਾਂਕਿ, ਇਸ ਤਕਨੀਕੀ ਤਰੱਕੀ ਨੇ ਨਵੀਆਂ ਚੁਣੌਤੀਆਂ ਵੀ ਪੇਸ਼ ਕੀਤੀਆਂ ਹਨ, ਖਾਸ ਕਰਕੇ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਖੇਤਰ ਵਿੱਚ। ਐਲੋਨ ਮਸਕ ਦੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮ, X ‘ਤੇ, ਇੱਕ ਚਿੰਤਾਜਨਕ ਰੁਝਾਨ ਸਾਹਮਣੇ ਆਇਆ ਹੈ: ਉਪਭੋਗਤਾ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਦੇ ਉਦੇਸ਼ਾਂ ਲਈ ਮਸਕ ਦੇ AI ਬੋਟ, Grok ਵੱਲ ਵੱਧ ਰਹੇ ਹਨ। ਇਸ ਘਟਨਾਕ੍ਰਮ ਨੇ ਮਨੁੱਖੀ ਤੱਥ-ਜਾਂਚ ਭਾਈਚਾਰੇ ਵਿੱਚ ਚਿੰਤਾ ਦੀਆਂ ਲਹਿਰਾਂ ਭੇਜੀਆਂ ਹਨ, ਜਿਸ ਨਾਲ ਗਲਤ ਜਾਂ ਗੁੰਮਰਾਹਕੁੰਨ ਜਾਣਕਾਰੀ ਦੇ ਵਿਆਪਕ ਪ੍ਰਸਾਰ ਦੀ ਸੰਭਾਵਨਾ ਬਾਰੇ ਡਰ ਪੈਦਾ ਹੋਇਆ ਹੈ।

ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮਾਂ ਵਿੱਚ AI ਦਾ ਏਕੀਕਰਣ ਨਵਾਂ ਨਹੀਂ ਹੈ। X ਦਾ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ xAI ਦੇ Grok ਨਾਲ ਗੱਲਬਾਤ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦੇਣ ਦਾ ਕਦਮ, ਕੁਝ ਤਰੀਕਿਆਂ ਨਾਲ, ਸਿਰਫ਼ ਇੱਕ ਰੁਝਾਨ ਦੀ ਪਾਲਣਾ ਕਰ ਰਿਹਾ ਹੈ। ਇਹ Perplexity ਦੇ ਪਹੁੰਚ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ, ਜੋ ਇੱਕ ਸਮਾਨ ਅਨੁਭਵ ਪ੍ਰਦਾਨ ਕਰਨ ਲਈ X ‘ਤੇ ਇੱਕ ਆਟੋਮੇਟਿਡ ਅਕਾਊਂਟ ਚਲਾਉਂਦਾ ਹੈ।

xAI ਨੇ X ‘ਤੇ Grok ਦੀ ਆਟੋਮੇਟਿਡ ਮੌਜੂਦਗੀ ਸਥਾਪਤ ਕਰਨ ਤੋਂ ਬਾਅਦ, ਉਪਭੋਗਤਾਵਾਂ ਨੇ ਤੁਰੰਤ ਇਸ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਦੀ ਪੜਚੋਲ ਕਰਨੀ ਸ਼ੁਰੂ ਕਰ ਦਿੱਤੀ, ਸਵਾਲ ਪੁੱਛੇ ਅਤੇ ਜਵਾਬ ਮੰਗੇ। ਭਾਰਤ ਵਰਗੇ ਖੇਤਰਾਂ ਵਿੱਚ, ਇੱਕ ਖਾਸ ਤੌਰ ‘ਤੇ ਚਿੰਤਾਜਨਕ ਪੈਟਰਨ ਸਾਹਮਣੇ ਆਇਆ: ਵਿਅਕਤੀਆਂ ਨੇ ਟਿੱਪਣੀਆਂ ਅਤੇ ਸਵਾਲਾਂ ਦੀ ਪੁਸ਼ਟੀ ਕਰਨ ਲਈ Grok ਦੀ ਵਰਤੋਂ ਕਰਨੀ ਸ਼ੁਰੂ ਕਰ ਦਿੱਤੀ, ਜਿਨ੍ਹਾਂ ਵਿੱਚੋਂ ਬਹੁਤ ਸਾਰੀਆਂ ਖਾਸ ਰਾਜਨੀਤਿਕ ਵਿਚਾਰਧਾਰਾਵਾਂ ਨੂੰ ਨਿਸ਼ਾਨਾ ਬਣਾਉਂਦੀਆਂ ਹਨ।

ਮਨੁੱਖੀ ਤੱਥ-ਜਾਂਚਕਰਤਾਵਾਂ ਦੀਆਂ ਚਿੰਤਾਵਾਂ

Grok, ਅਤੇ ਅਸਲ ਵਿੱਚ ਇਸ ਕਿਸਮ ਦੇ ਕਿਸੇ ਵੀ AI ਸਹਾਇਕ ‘ਤੇ, ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਲਈ ਇਹ ਨਿਰਭਰਤਾ ਗੰਭੀਰ ਚਿੰਤਾ ਦਾ ਕਾਰਨ ਹੈ। ਇਹਨਾਂ AI ਬੋਟਾਂ ਦੀ ਪ੍ਰਕਿਰਤੀ ਇਹ ਹੈ ਕਿ ਉਹ ਅਜਿਹੇ ਜਵਾਬ ਤਿਆਰ ਕਰ ਸਕਦੇ ਹਨ ਜੋ ਯਕੀਨਨ ਲੱਗਦੇ ਹਨ, ਭਾਵੇਂ ਉਹਨਾਂ ਦੀ ਤੱਥਾਂ ਦੀ ਸ਼ੁੱਧਤਾ ਦੀ ਪਰਵਾਹ ਕੀਤੇ ਬਿਨਾਂ। ਇਹ ਕੋਈ ਸਿਧਾਂਤਕ ਚਿੰਤਾ ਨਹੀਂ ਹੈ; Grok ਦਾ ਜਾਅਲੀ ਖ਼ਬਰਾਂ ਅਤੇ ਗਲਤ ਜਾਣਕਾਰੀ ਫੈਲਾਉਣ ਦਾ ਇੱਕ ਦਸਤਾਵੇਜ਼ੀ ਇਤਿਹਾਸ ਹੈ।

ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਘਟਨਾ ਵਾਪਰੀ, ਜਿੱਥੇ ਕਈ ਰਾਜ ਸਕੱਤਰਾਂ ਨੇ ਮਸਕ ਨੂੰ Grok ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਸੋਧਾਂ ਕਰਨ ਦੀ ਬੇਨਤੀ ਕੀਤੀ। ਇਹ ਜ਼ਰੂਰੀ ਬੇਨਤੀ AI ਸਹਾਇਕ ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਗਈ, ਸੋਸ਼ਲ ਨੈਟਵਰਕਸ ‘ਤੇ ਗੁੰਮਰਾਹਕੁੰਨ ਜਾਣਕਾਰੀ ਦੇ ਸਾਹਮਣੇ ਆਉਣ ਤੋਂ ਬਾਅਦ ਕੀਤੀ ਗਈ ਸੀ, ਜਿਸ ਨਾਲ ਚੋਣਾਂ ਤੋਂ ਪਹਿਲਾਂ ਚਿੰਤਾ ਦੀਆਂ ਘੰਟੀਆਂ ਵੱਜੀਆਂ ਸਨ।

Grok ਇਸ ਵਿੱਚ ਇਕੱਲਾ ਨਹੀਂ ਹੈ। ਹੋਰ ਪ੍ਰਮੁੱਖ ਚੈਟਬੋਟਸ, ਜਿਨ੍ਹਾਂ ਵਿੱਚ OpenAI ਦਾ ChatGPT ਅਤੇ Google ਦਾ Gemini ਸ਼ਾਮਲ ਹਨ, ਵੀ ਚੋਣਾਂ ਨਾਲ ਸਬੰਧਤ ਗਲਤ ਜਾਣਕਾਰੀ ਪੈਦਾ ਕਰਦੇ ਪਾਏ ਗਏ। ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਦੁਰਵਰਤੋਂ ਦੀ ਸੰਭਾਵਨਾ ਨੂੰ ਹੋਰ ਵੀ ਰੇਖਾਂਕਿਤ ਕੀਤਾ, 2023 ਵਿੱਚ ਖੁਲਾਸਾ ਕੀਤਾ ਕਿ ChatGPT ਵਰਗੇ AI ਚੈਟਬੋਟਸ ਨੂੰ ਗੁੰਮਰਾਹਕੁੰਨ ਬਿਰਤਾਂਤਾਂ ਵਾਲੇ ਪ੍ਰੇਰਕ ਟੈਕਸਟ ਤਿਆਰ ਕਰਨ ਲਈ ਆਸਾਨੀ ਨਾਲ ਵਰਤਿਆ ਜਾ ਸਕਦਾ ਹੈ।

ਪ੍ਰਮਾਣਿਕਤਾ ਦਾ ਭਰਮ

Poynter ਵਿਖੇ ਇੰਟਰਨੈਸ਼ਨਲ ਫੈਕਟ-ਚੈਕਿੰਗ ਨੈੱਟਵਰਕ (IFCN) ਦੇ ਨਿਰਦੇਸ਼ਕ, ਐਂਜੀ ਹੋਲਨ ਨੇ ਮੁੱਖ ਮੁੱਦੇ ਨੂੰ ਸਪੱਸ਼ਟ ਕਰਦੇ ਹੋਏ ਕਿਹਾ, “AI ਸਹਾਇਕ, ਜਿਵੇਂ ਕਿ Grok, ਉਹ ਅਸਲ ਵਿੱਚ ਕੁਦਰਤੀ ਭਾਸ਼ਾ ਦੀ ਵਰਤੋਂ ਕਰਨ ਵਿੱਚ ਬਹੁਤ ਵਧੀਆ ਹਨ ਅਤੇ ਇੱਕ ਅਜਿਹਾ ਜਵਾਬ ਦਿੰਦੇ ਹਨ ਜੋ ਇਸ ਤਰ੍ਹਾਂ ਲੱਗਦਾ ਹੈ ਜਿਵੇਂ ਕਿਸੇ ਮਨੁੱਖ ਨੇ ਕਿਹਾ ਹੋਵੇ। ਅਤੇ ਇਸ ਤਰੀਕੇ ਨਾਲ, AI ਉਤਪਾਦਾਂ ਦਾ ਕੁਦਰਤੀਤਾ ਅਤੇ ਪ੍ਰਮਾਣਿਕ-ਆਵਾਜ਼ ਵਾਲੇ ਜਵਾਬਾਂ ‘ਤੇ ਇਹ ਦਾਅਵਾ ਹੁੰਦਾ ਹੈ, ਭਾਵੇਂ ਉਹ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਬਹੁਤ ਗਲਤ ਹੋਣ। ਇੱਥੇ ਇਹ ਖ਼ਤਰਾ ਹੋਵੇਗਾ।”

ਖ਼ਤਰਾ, ਜਿਵੇਂ ਕਿ ਹੋਲਨ ਨੇ ਉਜਾਗਰ ਕੀਤਾ ਹੈ, ਪ੍ਰਮਾਣਿਕਤਾ ਦੀ ਧੋਖੇਬਾਜ਼ ਦਿੱਖ ਵਿੱਚ ਹੈ। AI ਦੀ ਮਨੁੱਖੀ ਭਾਸ਼ਾ ਦੀ ਨਕਲ ਕਰਨ ਦੀ ਯੋਗਤਾ ਭਰੋਸੇਯੋਗਤਾ ਦਾ ਭਰਮ ਪੈਦਾ ਕਰਦੀ ਹੈ, ਭਾਵੇਂ ਅੰਤਰੀਵ ਜਾਣਕਾਰੀ ਗਲਤ ਹੋਵੇ ਜਾਂ ਪੂਰੀ ਤਰ੍ਹਾਂ ਮਨਘੜਤ।

ਬੁਨਿਆਦੀ ਅੰਤਰ: AI ਬਨਾਮ ਮਨੁੱਖੀ ਤੱਥ-ਜਾਂਚਕਰਤਾ

AI ਸਹਾਇਕਾਂ ਅਤੇ ਮਨੁੱਖੀ ਤੱਥ-ਜਾਂਚਕਰਤਾਵਾਂ ਵਿਚਕਾਰ ਅੰਤਰ ਸਪੱਸ਼ਟ ਹੈ। ਮਨੁੱਖੀ ਤੱਥ-ਜਾਂਚਕਰਤਾ ਜਾਣਕਾਰੀ ਦੀ ਬਾਰੀਕੀ ਨਾਲ ਪੁਸ਼ਟੀ ਕਰਦੇ ਹਨ, ਕਈ, ਭਰੋਸੇਯੋਗ ਸਰੋਤਾਂ ‘ਤੇ ਨਿਰਭਰ ਕਰਦੇ ਹਨ। ਉਹ ਪਾਰਦਰਸ਼ਤਾ ਨਾਲ ਕੰਮ ਕਰਦੇ ਹਨ, ਆਪਣੇ ਨਾਵਾਂ ਅਤੇ ਸੰਗਠਨਾਤਮਕ ਮਾਨਤਾਵਾਂ ਨੂੰ ਆਪਣੇ ਨਤੀਜਿਆਂ ਨਾਲ ਜੋੜਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਜਵਾਬਦੇਹੀ ਯਕੀਨੀ ਹੁੰਦੀ ਹੈ ਅਤੇ ਭਰੋਸੇਯੋਗਤਾ ਵਧਦੀ ਹੈ।

ਭਾਰਤ ਦੀ ਗੈਰ-ਲਾਭਕਾਰੀ ਤੱਥ-ਜਾਂਚ ਵੈੱਬਸਾਈਟ Alt News ਦੇ ਸਹਿ-ਸੰਸਥਾਪਕ ਪ੍ਰਤੀਕ ਸਿਨਹਾ ਨੇ ਦੱਸਿਆ ਕਿ ਜਦੋਂ ਕਿ Grok ਦੇ ਜਵਾਬ ਵਰਤਮਾਨ ਵਿੱਚ ਪ੍ਰੇਰਕ ਜਾਪਦੇ ਹਨ, ਇਸਦੀ ਸ਼ੁੱਧਤਾ ਬੁਨਿਆਦੀ ਤੌਰ ‘ਤੇ ਉਸ ਡੇਟਾ ਦੁਆਰਾ ਸੀਮਤ ਹੈ ਜੋ ਇਸਨੂੰ ਪ੍ਰਾਪਤ ਹੁੰਦਾ ਹੈ। “ਕੌਣ ਫੈਸਲਾ ਕਰੇਗਾ ਕਿ ਇਸਨੂੰ ਕਿਹੜਾ ਡੇਟਾ ਸਪਲਾਈ ਕੀਤਾ ਜਾਂਦਾ ਹੈ, ਅਤੇ ਇਹ ਉਹ ਥਾਂ ਹੈ ਜਿੱਥੇ ਸਰਕਾਰੀ ਦਖਲਅੰਦਾਜ਼ੀ, ਆਦਿ, ਤਸਵੀਰ ਵਿੱਚ ਆਉਣਗੇ,” ਉਸਨੇ ਡੇਟਾ ਸਰੋਤ ਪਾਰਦਰਸ਼ਤਾ ਦੇ ਮਹੱਤਵਪੂਰਨ ਮੁੱਦੇ ਨੂੰ ਉਜਾਗਰ ਕਰਦੇ ਹੋਏ ਨੋਟ ਕੀਤਾ।

ਸਿਨਹਾ ਨੇ ਜ਼ੋਰ ਦੇ ਕੇ ਕਿਹਾ ਕਿ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਘਾਟ ਸੰਭਾਵੀ ਨੁਕਸਾਨ ਲਈ ਇੱਕ ਪ੍ਰਜਨਨ ਸਥਾਨ ਹੈ। “ਕੋਈ ਵੀ ਚੀਜ਼ ਜਿਸ ਵਿੱਚ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਘਾਟ ਹੈ, ਨੁਕਸਾਨ ਪਹੁੰਚਾਏਗੀ ਕਿਉਂਕਿ ਕੋਈ ਵੀ ਚੀਜ਼ ਜਿਸ ਵਿੱਚ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਘਾਟ ਹੈ, ਉਸਨੂੰ ਕਿਸੇ ਵੀ ਤਰੀਕੇ ਨਾਲ ਢਾਲਿਆ ਜਾ ਸਕਦਾ ਹੈ।”

Grok ਦਾ ਆਪਣਾ ਦਾਖਲਾ: ਦੁਰਵਰਤੋਂ ਦੀ ਸੰਭਾਵਨਾ

ਕੁਝ ਹੱਦ ਤੱਕ ਵਿਅੰਗਾਤਮਕ ਮੋੜ ਵਿੱਚ, X ‘ਤੇ Grok ਦੇ ਅਕਾਊਂਟ ਨੇ, ਆਪਣੇ ਪੋਸਟ ਕੀਤੇ ਜਵਾਬਾਂ ਵਿੱਚੋਂ ਇੱਕ ਵਿੱਚ, ਸਵੀਕਾਰ ਕੀਤਾ ਕਿ ਇਸਦੀ “ਦੁਰਵਰਤੋਂ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ - ਗਲਤ ਜਾਣਕਾਰੀ ਫੈਲਾਉਣ ਅਤੇ ਗੋਪਨੀਯਤਾ ਦੀ ਉਲੰਘਣਾ ਕਰਨ ਲਈ।”

ਇਸ ਸਵੀਕ੍ਰਿਤੀ ਦੇ ਬਾਵਜੂਦ, ਆਟੋਮੇਟਿਡ ਅਕਾਊਂਟ ਇਸਦੇ ਜਵਾਬ ਪ੍ਰਾਪਤ ਕਰਨ ਵਾਲੇ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਕੋਈ ਬੇਦਾਅਵਾ ਪ੍ਰਦਾਨ ਕਰਨ ਵਿੱਚ ਅਸਫਲ ਰਹਿੰਦਾ ਹੈ। ਇਹ ਕਮੀ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਗਲਤ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਕਮਜ਼ੋਰ ਛੱਡ ਦਿੰਦੀ ਹੈ, ਖਾਸ ਤੌਰ ‘ਤੇ ਉਹਨਾਂ ਮਾਮਲਿਆਂ ਵਿੱਚ ਜਿੱਥੇ AI ਨੇ ਜਵਾਬ ਨੂੰ “ਕਲਪਨਾ” ਕੀਤਾ ਹੈ, AI ਦੇ ਖੇਤਰ ਵਿੱਚ ਇੱਕ ਚੰਗੀ ਤਰ੍ਹਾਂ ਦਸਤਾਵੇਜ਼ੀ ਵਰਤਾਰਾ ਹੈ ਜਿੱਥੇ ਸਿਸਟਮ ਗਲਤ ਜਾਂ ਬੇਹੂਦਾ ਜਾਣਕਾਰੀ ਪੈਦਾ ਕਰਦਾ ਹੈ।

ਡਿਜੀਟਲ ਫਿਊਚਰਜ਼ ਲੈਬ ਵਿੱਚ ਇੱਕ ਖੋਜ ਸਹਿਯੋਗੀ, ਅਨੁਸ਼ਕਾ ਜੈਨ ਨੇ ਇਸ ਨੁਕਤੇ ‘ਤੇ ਵਿਸਤਾਰ ਨਾਲ ਦੱਸਿਆ, “ਇਹ ਜਵਾਬ ਪ੍ਰਦਾਨ ਕਰਨ ਲਈ ਜਾਣਕਾਰੀ ਬਣਾ ਸਕਦਾ ਹੈ।” ਜਾਣਕਾਰੀ ਬਣਾਉਣ ਦੀ ਇਹ ਪ੍ਰਵਿਰਤੀ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਦੇ ਸੰਦਰਭ ਵਿੱਚ AI ਦੀਆਂ ਅੰਦਰੂਨੀ ਸੀਮਾਵਾਂ ਨੂੰ ਰੇਖਾਂਕਿਤ ਕਰਦੀ ਹੈ।

ਸਿਖਲਾਈ ਡੇਟਾ ਦੀ ਦੁਬਿਧਾ

ਇੱਕ ਹੋਰ ਪੇਚੀਦਗੀ Grok ਦੇ ਸਿਖਲਾਈ ਡੇਟਾ ਦੇ ਸਵਾਲ ਤੋਂ ਪੈਦਾ ਹੁੰਦੀ ਹੈ। ਇਸ ਗੱਲ ਨੂੰ ਲੈ ਕੇ ਅਨਿਸ਼ਚਿਤਤਾ ਹੈ ਕਿ Grok ਕਿਸ ਹੱਦ ਤੱਕ X ‘ਤੇ ਪੋਸਟਾਂ ਨੂੰ ਸਿਖਲਾਈ ਸਮੱਗਰੀ ਵਜੋਂ ਵਰਤਦਾ ਹੈ, ਅਤੇ ਅਜਿਹੀਆਂ ਪੋਸਟਾਂ ਦੀ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਕਰਨ ਲਈ ਵਰਤੇ ਜਾਂਦੇ ਗੁਣਵੱਤਾ ਨਿਯੰਤਰਣ ਉਪਾਅ, ਜੇਕਰ ਕੋਈ ਹਨ। ਪਹਿਲਾਂ ਲਾਗੂ ਕੀਤੀ ਗਈ ਇੱਕ ਤਬਦੀਲੀ ਨੇ Grok ਨੂੰ X ਉਪਭੋਗਤਾ ਡੇਟਾ ਤੱਕ ਡਿਫੌਲਟ ਪਹੁੰਚ ਪ੍ਰਦਾਨ ਕੀਤੀ ਜਾਪਦੀ ਹੈ, ਜਿਸ ਨਾਲ AI ਦੁਆਰਾ ਪਲੇਟਫਾਰਮ ‘ਤੇ ਮੌਜੂਦ ਗਲਤ ਜਾਣਕਾਰੀ ਨੂੰ ਜਜ਼ਬ ਕਰਨ ਅਤੇ ਪ੍ਰਸਾਰਿਤ ਕਰਨ ਦੀ ਸੰਭਾਵਨਾ ਬਾਰੇ ਚਿੰਤਾਵਾਂ ਪੈਦਾ ਹੋਈਆਂ ਹਨ।

AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਜਾਣਕਾਰੀ ਦੀ ਜਨਤਕ ਬਨਾਮ ਨਿੱਜੀ ਖਪਤ

ਇੱਕ ਹੋਰ ਮਹੱਤਵਪੂਰਨ ਚਿੰਤਾ ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮਾਂ ‘ਤੇ Grok ਵਰਗੇ AI ਸਹਾਇਕਾਂ ਦੀ ਜਨਤਕ ਪ੍ਰਕਿਰਤੀ ਦੇ ਦੁਆਲੇ ਘੁੰਮਦੀ ਹੈ। ChatGPT ਵਰਗੇ ਚੈਟਬੋਟਸ ਨਾਲ ਗੱਲਬਾਤ ਦੇ ਉਲਟ, ਜੋ ਆਮ ਤੌਰ ‘ਤੇ ਇੱਕ ਨਿੱਜੀ ਸੈਟਿੰਗ ਵਿੱਚ ਹੁੰਦੀ ਹੈ, Grok ਦੇ ਜਵਾਬ ਜਨਤਕ ਤੌਰ ‘ਤੇ ਦਿੱਤੇ ਜਾਂਦੇ ਹਨ।

ਇਹ ਜਨਤਕ ਪ੍ਰਸਾਰ ਇੱਕ ਅਜਿਹੀ ਸਥਿਤੀ ਪੈਦਾ ਕਰਦਾ ਹੈ ਜਿੱਥੇ, ਭਾਵੇਂ ਇੱਕ ਉਪਭੋਗਤਾ ਜਾਣੂ ਹੋਵੇ ਕਿ AI ਦੁਆਰਾ ਪ੍ਰਦਾਨ ਕੀਤੀ ਗਈ ਜਾਣਕਾਰੀ ਗਲਤ ਹੋ ਸਕਦੀ ਹੈ, ਪਲੇਟਫਾਰਮ ‘ਤੇ ਦੂਜੇ ਉਪਭੋਗਤਾ ਅਜੇ ਵੀ ਇਸਨੂੰ ਸੱਚ ਮੰਨ ਸਕਦੇ ਹਨ। ਇਹ ਗੰਭੀਰ ਸਮਾਜਿਕ ਨਤੀਜਿਆਂ ਵੱਲ ਲੈ ਜਾ ਸਕਦਾ ਹੈ।

ਇਤਿਹਾਸਕ ਮਿਸਾਲਾਂ ਮੌਜੂਦ ਹਨ। ਉਦਾਹਰਨ ਲਈ, ਭਾਰਤ ਨੇ WhatsApp ਰਾਹੀਂ ਫੈਲਾਈ ਗਈ ਗਲਤ ਜਾਣਕਾਰੀ ਕਾਰਨ ਭੀੜ ਦੁਆਰਾ ਕੁੱਟਮਾਰ ਦੀਆਂ ਦੁਖਦਾਈ ਘਟਨਾਵਾਂ ਦੇਖੀਆਂ। ਇਹ ਘਟਨਾਵਾਂ, ਜਦੋਂ ਕਿ ਜਨਰੇਟਿਵ AI ਦੀ ਵਿਆਪਕ ਉਪਲਬਧਤਾ ਤੋਂ ਪਹਿਲਾਂ ਦੀਆਂ ਹਨ, ਅਣਚੈਕ ਕੀਤੀ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਅਸਲ-ਸੰਸਾਰ ਦੇ ਖ਼ਤਰਿਆਂ ਦੀ ਇੱਕ ਸਪੱਸ਼ਟ ਯਾਦ ਦਿਵਾਉਂਦੀਆਂ ਹਨ। GenAI ਦੇ ਆਗਮਨ ਨੇ, ਇਸਦੀ ਸਿੰਥੈਟਿਕ ਸਮੱਗਰੀ ਤਿਆਰ ਕਰਨ ਦੀ ਯੋਗਤਾ ਦੇ ਨਾਲ ਜੋ ਕਮਾਲ ਦੀ ਤਰ੍ਹਾਂ ਯਥਾਰਥਵਾਦੀ ਜਾਪਦੀ ਹੈ, ਇਹਨਾਂ ਜੋਖਮਾਂ ਨੂੰ ਹੋਰ ਵਧਾ ਦਿੱਤਾ ਹੈ।

AI ਦੀ ਗਲਤੀ ਦਰ

IFCN ਦੀ ਹੋਲਨ ਨੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਕਿ, “ਜੇਕਰ ਤੁਸੀਂ ਇਹਨਾਂ ਵਿੱਚੋਂ ਬਹੁਤ ਸਾਰੇ Grok ਜਵਾਬ ਦੇਖਦੇ ਹੋ, ਤਾਂ ਤੁਸੀਂ ਕਹੋਗੇ, ਹੇ, ਠੀਕ ਹੈ, ਉਹਨਾਂ ਵਿੱਚੋਂ ਜ਼ਿਆਦਾਤਰ ਸਹੀ ਹਨ, ਅਤੇ ਇਹ ਇਸ ਤਰ੍ਹਾਂ ਹੋ ਸਕਦਾ ਹੈ, ਪਰ ਕੁਝ ਅਜਿਹੇ ਹੋਣਗੇ ਜੋ ਗਲਤ ਹਨ। ਅਤੇ ਕਿੰਨੇ? ਇਹ ਕੋਈ ਛੋਟਾ ਅੰਸ਼ ਨਹੀਂ ਹੈ। ਕੁਝ ਖੋਜ ਅਧਿਐਨਾਂ ਨੇ ਦਿਖਾਇਆ ਹੈ ਕਿ AI ਮਾਡਲ 20% ਗਲਤੀ ਦਰਾਂ ਦੇ ਅਧੀਨ ਹਨ… ਅਤੇ ਜਦੋਂ ਇਹ ਗਲਤ ਹੁੰਦਾ ਹੈ, ਤਾਂ ਇਹ ਅਸਲ-ਸੰਸਾਰ ਦੇ ਨਤੀਜਿਆਂ ਨਾਲ ਅਸਲ ਵਿੱਚ ਗਲਤ ਹੋ ਸਕਦਾ ਹੈ।”

20% ਗਲਤੀ ਦਰ, ਜਿਵੇਂ ਕਿ ਹੋਲਨ ਦੁਆਰਾ ਉਜਾਗਰ ਕੀਤੀ ਗਈ ਹੈ, ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਅੰਕੜਾ ਹੈ। ਇਹ ਉਹਨਾਂ ਸਥਿਤੀਆਂ ਵਿੱਚ AI ਦੀ ਅੰਦਰੂਨੀ ਅਵਿਸ਼ਵਾਸਯੋਗਤਾ ਨੂੰ ਰੇਖਾਂਕਿਤ ਕਰਦਾ ਹੈ ਜਿੱਥੇ ਤੱਥਾਂ ਦੀ ਸ਼ੁੱਧਤਾ ਦੀ ਮੰਗ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਅਤੇ, ਜਿਵੇਂ ਕਿ ਉਹ ਜ਼ੋਰ ਦਿੰਦੀ ਹੈ, ਇਹਨਾਂ ਗਲਤੀਆਂ ਦੇ ਨਤੀਜੇ ਡੂੰਘੇ ਹੋ ਸਕਦੇ ਹਨ, ਜੋ ਡਿਜੀਟਲ ਖੇਤਰ ਤੋਂ ਬਹੁਤ ਦੂਰ ਤੱਕ ਫੈਲੇ ਹੋਏ ਹਨ।

AI: ਇੱਕ ਟੂਲ, ਮਨੁੱਖੀ ਨਿਰਣੇ ਦਾ ਬਦਲ ਨਹੀਂ

ਜਦੋਂ ਕਿ AI ਕੰਪਨੀਆਂ, xAI ਸਮੇਤ, ਵਧੇਰੇ ਮਨੁੱਖੀ-ਵਰਗੇ ਸੰਚਾਰ ਨੂੰ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਆਪਣੇ ਮਾਡਲਾਂ ਨੂੰ ਲਗਾਤਾਰ ਸੁਧਾਰਦੀਆਂ ਹਨ, ਬੁਨਿਆਦੀ ਹਕੀਕਤ ਬਣੀ ਰਹਿੰਦੀ ਹੈ: AI ਮਨੁੱਖੀ ਨਿਰਣੇ ਨੂੰ ਬਦਲ ਨਹੀਂ ਸਕਦਾ, ਅਤੇ ਨਾ ਹੀ ਬਦਲਣਾ ਚਾਹੀਦਾ ਹੈ, ਖਾਸ ਕਰਕੇ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਦੇ ਮਹੱਤਵਪੂਰਨ ਖੇਤਰ ਵਿੱਚ।

ਤਕਨੀਕੀ ਕੰਪਨੀਆਂ ਵਿੱਚ ਮਨੁੱਖੀ ਤੱਥ-ਜਾਂਚਕਰਤਾਵਾਂ ‘ਤੇ ਨਿਰਭਰਤਾ ਘਟਾਉਣ ਦੇ ਤਰੀਕਿਆਂ ਦੀ ਖੋਜ ਕਰਨ ਦਾ ਰੁਝਾਨ ਚਿੰਤਾ ਦਾ ਕਾਰਨ ਹੈ। X ਅਤੇ Meta ਵਰਗੇ ਪਲੇਟਫਾਰਮਾਂ ਨੇ ਭੀੜ-ਸੋਰਸਡ ਤੱਥ-ਜਾਂਚ ਦੀ ਧਾਰਨਾ ਨੂੰ ਅਪਣਾਇਆ ਹੈ, ਜਿਸਦੀ ਉਦਾਹਰਣ ‘ਕਮਿਊਨਿਟੀ ਨੋਟਸ’ ਵਰਗੀਆਂ ਪਹਿਲਕਦਮੀਆਂ ਦੁਆਰਾ ਦਿੱਤੀ ਗਈ ਹੈ। ਇਹ ਤਬਦੀਲੀਆਂ, ਜਦੋਂ ਕਿ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਕੁਝ ਫਾਇਦੇ ਪੇਸ਼ ਕਰਦੀਆਂ ਹਨ, ਸਖ਼ਤ ਤੱਥ-ਜਾਂਚ ਦੇ ਮਿਆਰਾਂ ਦੇ ਸੰਭਾਵੀ ਕਟੌਤੀ ਬਾਰੇ ਵੀ ਸਵਾਲ ਖੜ੍ਹੇ ਕਰਦੀਆਂ ਹਨ।

ਮਨੁੱਖੀ ਤੱਥ-ਜਾਂਚ ਵੱਲ ਇੱਕ ਪੈਂਡੂਲਮ ਸਵਿੰਗ?

Alt News ਦੇ ਸਿਨਹਾ ਨੇ ਇੱਕ ਆਸ਼ਾਵਾਦੀ ਨਜ਼ਰੀਆ ਪ੍ਰਗਟ ਕੀਤਾ, ਇਹ ਸੁਝਾਅ ਦਿੱਤਾ ਕਿ ਲੋਕ ਆਖਰਕਾਰ ਮਸ਼ੀਨਾਂ ਦੇ ਆਉਟਪੁੱਟ ਅਤੇ ਮਨੁੱਖੀ ਤੱਥ-ਜਾਂਚਕਰਤਾਵਾਂ ਦੇ ਕੰਮ ਵਿੱਚ ਫਰਕ ਕਰਨਾ ਸਿੱਖਣਗੇ, ਅੰਤ ਵਿੱਚ ਬਾਅਦ ਵਾਲੇ ਦੀ ਸ਼ੁੱਧਤਾ ਅਤੇ ਭਰੋਸੇਯੋਗਤਾ ਦੀ ਕਦਰ ਕਰਨਗੇ।

IFCN ਦੀ ਹੋਲਨ ਨੇ ਭਵਿੱਖਬਾਣੀ ਕੀਤੀ, “ਅਸੀਂ ਪੈਂਡੂਲਮ ਨੂੰ ਆਖਰਕਾਰ ਵਧੇਰੇ ਤੱਥ-ਜਾਂਚ ਵੱਲ ਵਾਪਸ ਝੂਲਦੇ ਹੋਏ ਦੇਖਣ ਜਾ ਰਹੇ ਹਾਂ।”

ਹਾਲਾਂਕਿ, ਉਸਨੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਕਿ ਇਸ ਦੌਰਾਨ, ਤੱਥ-ਜਾਂਚਕਰਤਾਵਾਂ ਨੂੰ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਜਾਣਕਾਰੀ ਦੇ ਤੇਜ਼ੀ ਨਾਲ ਫੈਲਣ ਕਾਰਨ ਵਧੇ ਹੋਏ ਕੰਮ ਦੇ ਬੋਝ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈ ਸਕਦਾ ਹੈ। ਚੁਣੌਤੀ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਪ੍ਰਵਾਹ ਦਾ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਢੰਗ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨਾ ਹੋਵੇਗੀ, ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਕਿ ਜਨਤਾ ਸੱਚਾਈ ਦੁਆਰਾ ਸੂਚਿਤ ਰਹੇ, ਨਾ ਕਿ ਯਕੀਨਨ ਭਰਮਾਂ ਦੁਆਰਾ।

ਮੁੱਖ ਸਵਾਲ: ਸੱਚਾਈ ਬਾਰੇ ਪਰਵਾਹ ਕਰਨਾ

ਮਾਮਲੇ ਦੇ ਕੇਂਦਰ ਵਿੱਚ ਇੱਕ ਬੁਨਿਆਦੀ ਸਵਾਲ ਹੈ: “ਕੀ ਤੁਸੀਂ ਸੱਚਮੁੱਚ ਇਸ ਗੱਲ ਦੀ ਪਰਵਾਹ ਕਰਦੇ ਹੋ ਕਿ ਅਸਲ ਵਿੱਚ ਕੀ ਸੱਚ ਹੈ ਜਾਂ ਨਹੀਂ? ਕੀ ਤੁਸੀਂ ਸਿਰਫ਼ ਕਿਸੇ ਅਜਿਹੀ ਚੀਜ਼ ਦੀ ਭਾਲ ਕਰ ਰਹੇ ਹੋ ਜੋ ਸੱਚੀ ਹੋਣ ਤੋਂ ਬਿਨਾਂ ਸੱਚੀ ਲੱਗਦੀ ਅਤੇ ਮਹਿਸੂਸ ਹੁੰਦੀ ਹੈ? ਕਿਉਂਕਿ AI ਸਹਾਇਤਾ ਤੁਹਾਨੂੰ ਇਹੀ ਪ੍ਰਾਪਤ ਕਰੇਗੀ,” ਹੋਲਨ ਨੇ ਕਿਹਾ।

ਇਹ ਸਵਾਲ ਜਾਣਕਾਰੀ ਦੇ ਪ੍ਰਸਾਰ ਵਿੱਚ AI ਦੇ ਵਾਧੇ ਦੁਆਰਾ ਪੈਦਾ ਹੋਈ ਮਹੱਤਵਪੂਰਨ ਦੁਬਿਧਾ ਨੂੰ ਸ਼ਾਮਲ ਕਰਦਾ ਹੈ। ਕੀ ਅਸੀਂ, ਇੱਕ ਸਮਾਜ ਦੇ ਰੂਪ ਵਿੱਚ, ਤੱਥਾਂ ਦੀ ਪੁਸ਼ਟੀ ਕਰਨ ਦੀ ਮਿਹਨਤੀ ਵਾਲੀ ਪ੍ਰਕਿਰਿਆ ਨਾਲੋਂ ਸਹੂਲਤ ਅਤੇ ਸੱਚਾਈ ਦੀ ਦਿੱਖ ਨੂੰ ਤਰਜੀਹ ਦੇਣ ਲਈ ਤਿਆਰ ਹਾਂ? ਇਸ ਸਵਾਲ ਦਾ ਜਵਾਬ ਆਖਰਕਾਰ ਜਾਣਕਾਰੀ ਦੇ ਭਵਿੱਖ ਨੂੰ ਆਕਾਰ ਦੇਵੇਗਾ, ਇਹ ਨਿਰਧਾਰਤ ਕਰੇਗਾ ਕਿ ਕੀ ਅਸੀਂ ਨਿਰਮਿਤ ਹਕੀਕਤਾਂ ਦੀ ਦੁਨੀਆ ਦੇ ਅੱਗੇ ਝੁਕ ਜਾਂਦੇ ਹਾਂ ਜਾਂ ਸੱਚਾਈ ਅਤੇ ਸ਼ੁੱਧਤਾ ਦੇ ਸਿਧਾਂਤਾਂ ਨੂੰ ਕਾਇਮ ਰੱਖਦੇ ਹਾਂ।