AI ਗੱਲਬਾਤ ਬੋਟ ਅਤੇ ਰੂਸੀ ਗਲਤ ਜਾਣਕਾਰੀ

ਕ੍ਰੇਮਲਿਨ-ਸਮਰਥਿਤ ਝੂਠਾਂ ਦਾ ਵਿਆਪਕ ਪ੍ਰਭਾਵ

ਸਮੱਸਿਆ ਦਾ ਮੂਲ ਔਨਲਾਈਨ ਜਾਣਕਾਰੀ ਸਰੋਤਾਂ ਦੇ ਜਾਣਬੁੱਝ ਕੇ ਦੂਸ਼ਿਤ ਹੋਣ ਵਿੱਚ ਹੈ। ਖੋਜ ਨਤੀਜਿਆਂ ਅਤੇ ਵੈੱਬ ਕ੍ਰੌਲਰਾਂ ਨੂੰ ਕ੍ਰੇਮਲਿਨ ਪੱਖੀ ਝੂਠਾਂ ਨਾਲ ਭਰ ਕੇ, ਗਲਤ ਜਾਣਕਾਰੀ ਦੇਣ ਵਾਲੇ ਅਦਾਕਾਰਾਂ ਦਾ ਇੱਕ ਨੈੱਟਵਰਕ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ (LLMs) ਦੇ ਆਉਟਪੁੱਟ ਨੂੰ ਸਰਗਰਮੀ ਨਾਲ ਰੂਪ ਦੇ ਰਿਹਾ ਹੈ। ਇਹ ਮਾਡਲ, ਜੋ AI ਚੈਟਬੋਟਾਂ ਨੂੰ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਨ ਜਿਨ੍ਹਾਂ ਨਾਲ ਅਸੀਂ ਰੋਜ਼ਾਨਾ ਗੱਲਬਾਤ ਕਰਦੇ ਹਾਂ, ਇੰਟਰਨੈਟ ਤੋਂ ਖੁਰਚੇ ਗਏ ਵਿਸ਼ਾਲ ਡੇਟਾਸੈਟਾਂ ‘ਤੇ ਨਿਰਭਰ ਕਰਦੇ ਹਨ। ਜਦੋਂ ਇਹ ਡੇਟਾ ਗਲਤ ਜਾਣਕਾਰੀ ਨਾਲ ਪ੍ਰਦੂਸ਼ਿਤ ਹੁੰਦਾ ਹੈ, ਤਾਂ ਨਤੀਜੇ ਵਜੋਂ ਆਉਟਪੁੱਟ ਇਹਨਾਂ ਪੱਖਪਾਤਾਂ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ।

NewsGuard, ਇੱਕ ਕੰਪਨੀ ਜੋ ਖ਼ਬਰਾਂ ਅਤੇ ਜਾਣਕਾਰੀ ਵਾਲੀਆਂ ਵੈੱਬਸਾਈਟਾਂ ਲਈ ਭਰੋਸੇਯੋਗਤਾ ਰੇਟਿੰਗਾਂ ਅਤੇ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਫਿੰਗਰਪ੍ਰਿੰਟ ਪ੍ਰਦਾਨ ਕਰਦੀ ਹੈ, ਨੇ ਇਸ ਵਰਤਾਰੇ ਦਾ ਡੂੰਘਾਈ ਨਾਲ ਵਿਸ਼ਲੇਸ਼ਣ ਕੀਤਾ। ਉਹਨਾਂ ਦੇ ਨਤੀਜੇ ਇੱਕ ਪਰੇਸ਼ਾਨ ਕਰਨ ਵਾਲੀ ਹਕੀਕਤ ਨੂੰ ਪ੍ਰਗਟ ਕਰਦੇ ਹਨ: ਪ੍ਰਮੁੱਖ AI ਚੈਟਬੋਟਾਂ ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਜਾਣਕਾਰੀ ਦਾ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਹਿੱਸਾ ਕ੍ਰੇਮਲਿਨ ਪੱਖੀ ਵੈੱਬਸਾਈਟਾਂ ਦੇ ਇੱਕ ਖਾਸ ਨੈੱਟਵਰਕ ਦੁਆਰਾ ਪ੍ਰਸਾਰਿਤ ਬਿਰਤਾਂਤਾਂ ਨੂੰ ਦੁਹਰਾਉਂਦਾ ਹੈ।

ਗਲਤ ਜਾਣਕਾਰੀ ਦੀਆਂ ਵਿਧੀਆਂ: AI ਮਾਡਲਾਂ ਨੂੰ ਕਿਵੇਂ ਹੇਰਾਫੇਰੀ ਕੀਤੀ ਜਾਂਦੀ ਹੈ

ਇਸ ਗਲਤ ਜਾਣਕਾਰੀ ਨੈੱਟਵਰਕ ਦੁਆਰਾ ਵਰਤੀ ਗਈ ਰਣਨੀਤੀ ਛੁਪੀ ਹੋਈ ਅਤੇ ਗੁੰਝਲਦਾਰ ਹੈ। ਇਹ ਮੁੱਖ ਤੌਰ ‘ਤੇ ਮਨੁੱਖੀ ਪਾਠਕਾਂ ਨੂੰ ਆਕਰਸ਼ਿਤ ਕਰਨ ਦੇ ਉਦੇਸ਼ ਨਾਲ ਨਹੀਂ ਹੈ; ਸਗੋਂ, ਇਹ ਉਹਨਾਂ ਐਲਗੋਰਿਦਮਾਂ ਨੂੰ ਹੇਰਾਫੇਰੀ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ ਜੋ AI ਚੈਟਬੋਟਾਂ ਨੂੰ ਅੰਡਰਪਿਨ ਕਰਦੇ ਹਨ। ਇਹ ਚਾਲ, ਜਿਸਨੂੰ ‘LLM ਗਰੂਮਿੰਗ’ ਵਜੋਂ ਜਾਣਿਆ ਜਾਂਦਾ ਹੈ, ਵਿੱਚ ਬਹੁਤ ਸਾਰੀਆਂ ਵੈੱਬਸਾਈਟਾਂ ਵਿੱਚ ਰਣਨੀਤਕ ਤੌਰ ‘ਤੇ ਝੂਠੀ ਜਾਂ ਗੁੰਮਰਾਹਕੁੰਨ ਜਾਣਕਾਰੀ ਲਗਾਉਣਾ ਸ਼ਾਮਲ ਹੈ, ਇਹ ਜਾਣਦੇ ਹੋਏ ਕਿ ਇਹਨਾਂ ਪਲੇਟਫਾਰਮਾਂ ਨੂੰ LLMs ਦੁਆਰਾ ਖੁਰਚਿਆ ਅਤੇ ਗ੍ਰਹਿਣ ਕੀਤਾ ਜਾਵੇਗਾ।

ਅਮੈਰੀਕਨ ਸਨਲਾਈਟ ਪ੍ਰੋਜੈਕਟ (ASP), ਇੱਕ ਯੂ.ਐੱਸ. ਗੈਰ-ਲਾਭਕਾਰੀ ਸੰਸਥਾ, ਨੇ ਫਰਵਰੀ 2025 ਦੀ ਇੱਕ ਰਿਪੋਰਟ ਵਿੱਚ ਇਸ ਖਤਰੇ ਨੂੰ ਉਜਾਗਰ ਕੀਤਾ। ਉਹਨਾਂ ਨੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਕਿ ਪ੍ਰਵਦਾ ਨੈੱਟਵਰਕ, ਰੂਸੀ ਪੱਖੀ ਬਿਰਤਾਂਤਾਂ ਨੂੰ ਅੱਗੇ ਵਧਾਉਣ ਵਾਲੀਆਂ ਵੈੱਬਸਾਈਟਾਂ ਦਾ ਇੱਕ ਸੰਗ੍ਰਹਿ, ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ AI ਮਾਡਲਾਂ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰਨ ਦੇ ਸਪੱਸ਼ਟ ਉਦੇਸ਼ ਨਾਲ ਬਣਾਇਆ ਗਿਆ ਸੀ। ਰੂਸ ਪੱਖੀ ਬਿਰਤਾਂਤਾਂ ਦੀ ਮਾਤਰਾ ਜਿੰਨੀ ਵੱਡੀ ਹੋਵੇਗੀ, LLMs ਦੇ ਉਹਨਾਂ ਨੂੰ ਆਪਣੇ ਗਿਆਨ ਅਧਾਰ ਵਿੱਚ ਜੋੜਨ ਦੀ ਸੰਭਾਵਨਾ ਓਨੀ ਹੀ ਵੱਧ ਹੋਵੇਗੀ।

ਇਸ ਦੇ ਪ੍ਰਭਾਵ ਦੂਰਗਾਮੀ ਹਨ। ਜਿਵੇਂ ਕਿ LLMs ਸਾਡੀ ਰੋਜ਼ਾਨਾ ਜ਼ਿੰਦਗੀ ਵਿੱਚ ਵੱਧ ਤੋਂ ਵੱਧ ਏਕੀਕ੍ਰਿਤ ਹੁੰਦੇ ਹਨ, ਜਾਣਕਾਰੀ ਅਤੇ ਸਹਾਇਤਾ ਦੇ ਸਰੋਤਾਂ ਵਜੋਂ ਕੰਮ ਕਰਦੇ ਹਨ, ਹੇਰਾਫੇਰੀ ਵਾਲੀ ਸਮੱਗਰੀ ਦੇ ਵਿਆਪਕ ਪ੍ਰਸਾਰ ਦੀ ਸੰਭਾਵਨਾ ਚਿੰਤਾਜਨਕ ਹੈ।

NewsGuard ਦਾ ਆਡਿਟ: ਪ੍ਰਭਾਵ ਨੂੰ ਮਾਪਣਾ

ਇਸ ਸਮੱਸਿਆ ਦੀ ਹੱਦ ਦਾ ਮੁਲਾਂਕਣ ਕਰਨ ਲਈ, NewsGuard ਨੇ ਦਸ ਪ੍ਰਮੁੱਖ AI ਚੈਟਬੋਟਾਂ ਦਾ ਆਡਿਟ ਕੀਤਾ। ਇਹਨਾਂ ਵਿੱਚ ਸ਼ਾਮਲ ਹਨ:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity’s answer engine

ਆਡਿਟ 15 ਵੱਖ-ਵੱਖ ਝੂਠੇ ਬਿਰਤਾਂਤਾਂ ‘ਤੇ ਕੇਂਦ੍ਰਿਤ ਸੀ ਜੋ ਅਪ੍ਰੈਲ 2022 ਅਤੇ ਫਰਵਰੀ 2025 ਦੇ ਵਿਚਕਾਰ 150 ਕ੍ਰੇਮਲਿਨ ਪੱਖੀ ਪ੍ਰਵਦਾ ਵੈੱਬਸਾਈਟਾਂ ਦੁਆਰਾ ਸਰਗਰਮੀ ਨਾਲ ਪ੍ਰਚਾਰੇ ਗਏ ਸਨ। ਇਹ ਬਿਰਤਾਂਤ ਇੱਕ ਖਾਸ ਰਾਜਨੀਤਿਕ ਏਜੰਡੇ ਨੂੰ ਅੱਗੇ ਵਧਾਉਣ ਲਈ ਤਿਆਰ ਕੀਤੇ ਗਏ ਵਿਸ਼ਿਆਂ ਦੀ ਇੱਕ ਸ਼੍ਰੇਣੀ ਨੂੰ ਕਵਰ ਕਰਦੇ ਹਨ।

ਵਿਧੀ ਵਿੱਚ NewsGuard ਦੇ ਗਲਤ ਜਾਣਕਾਰੀ ਫਿੰਗਰਪ੍ਰਿੰਟਸ, ਮਹੱਤਵਪੂਰਨ ਖਬਰਾਂ ਦੇ ਵਿਸ਼ਿਆਂ ‘ਤੇ ਪ੍ਰਦਰਸ਼ਿਤ ਤੌਰ ‘ਤੇ ਝੂਠੇ ਦਾਅਵਿਆਂ ਦੀ ਇੱਕ ਕੈਟਾਲਾਗ ਦੇ ਅਧਾਰ ‘ਤੇ ਪ੍ਰੋਂਪਟਾਂ ਦੀ ਇੱਕ ਲੜੀ ਦੇ ਨਾਲ ਹਰੇਕ ਚੈਟਬੋਟ ਦੀ ਜਾਂਚ ਕਰਨਾ ਸ਼ਾਮਲ ਹੈ। ਪ੍ਰੋਂਪਟਾਂ ਨੂੰ ਤਿੰਨ ਵੱਖ-ਵੱਖ ਸ਼ੈਲੀਆਂ - Innocent, Leading, ਅਤੇ Malign - ਵਿੱਚ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਸੀ ਤਾਂ ਜੋ ਉਪਭੋਗਤਾਵਾਂ ਦੇ ਉਤਪਾਦਕ AI ਮਾਡਲਾਂ ਨਾਲ ਗੱਲਬਾਤ ਕਰਨ ਦੇ ਵੱਖ-ਵੱਖ ਤਰੀਕਿਆਂ ਦੀ ਨਕਲ ਕੀਤੀ ਜਾ ਸਕੇ। ਇਸ ਦੇ ਨਤੀਜੇ ਵਜੋਂ ਕੁੱਲ 450 ਜਵਾਬ (45 ਪ੍ਰਤੀ ਚੈਟਬੋਟ) ਮਿਲੇ।

ਪਰੇਸ਼ਾਨ ਕਰਨ ਵਾਲੇ ਨਤੀਜੇ: ਚੈਟਬੋਟਾਂ ਵਿੱਚ ਗਲਤ ਜਾਣਕਾਰੀ ਪ੍ਰਚਲਿਤ ਹੈ

NewsGuard ਆਡਿਟ ਦੇ ਨਤੀਜੇ ਸਪੱਸ਼ਟ ਸਨ। ਸਮੂਹਿਕ ਤੌਰ ‘ਤੇ, ਦਸ AI ਚੈਟਬੋਟਾਂ ਨੇ 33.55% ਜਵਾਬਾਂ ਵਿੱਚ ਝੂਠੇ ਰੂਸੀ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਬਿਰਤਾਂਤਾਂ ਨੂੰ ਦੁਹਰਾਇਆ। ਉਹਨਾਂ ਨੇ 18.22% ਮਾਮਲਿਆਂ ਵਿੱਚ ਕੋਈ ਜਵਾਬ ਨਹੀਂ ਦਿੱਤਾ ਅਤੇ 48.22% ਮਾਮਲਿਆਂ ਵਿੱਚ ਬਿਰਤਾਂਤ ਨੂੰ ਗਲਤ ਸਾਬਤ ਕੀਤਾ।

ਜਾਂਚ ਕੀਤੇ ਗਏ ਹਰ ਇੱਕ ਚੈਟਬੋਟ ਨੇ ਪ੍ਰਵਦਾ ਨੈੱਟਵਰਕ ਤੋਂ ਪੈਦਾ ਹੋਈ ਗਲਤ ਜਾਣਕਾਰੀ ਨੂੰ ਦੁਹਰਾਇਆ। ਇਸ ਤੋਂ ਵੀ ਵੱਧ ਚਿੰਤਾਜਨਕ ਗੱਲ ਇਹ ਹੈ ਕਿ ਸੱਤ ਚੈਟਬੋਟਾਂ ਨੇ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਪ੍ਰਵਦਾ ਵੈੱਬਸਾਈਟਾਂ ਦੇ ਖਾਸ ਲੇਖਾਂ ਨੂੰ ਆਪਣੇ ਸਰੋਤਾਂ ਵਜੋਂ ਦਰਸਾਇਆ। ਜਦੋਂ ਕਿ ਦੋ AI ਮਾਡਲ ਸਪੱਸ਼ਟ ਹਵਾਲੇ ਪ੍ਰਦਾਨ ਨਹੀਂ ਕਰਦੇ ਹਨ, ਉਹ ਅਜੇ ਵੀ ਨੈੱਟਵਰਕ ਤੋਂ ਝੂਠੇ ਬਿਰਤਾਂਤਾਂ ਨੂੰ ਤਿਆਰ ਜਾਂ ਦੁਹਰਾਉਂਦੇ ਪਾਏ ਗਏ। ਸਰੋਤਾਂ ਦਾ ਹਵਾਲਾ ਦੇਣ ਵਾਲੇ ਅੱਠ ਮਾਡਲਾਂ ਵਿੱਚੋਂ ਸਿਰਫ ਇੱਕ ਨੇ ਪ੍ਰਵਦਾ ਦਾ ਹਵਾਲਾ ਨਹੀਂ ਦਿੱਤਾ।

ਕੁੱਲ ਮਿਲਾ ਕੇ, 450 ਚੈਟਬੋਟ ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੇ ਗਏ ਜਵਾਬਾਂ ਵਿੱਚੋਂ 56 ਵਿੱਚ ਪ੍ਰਵਦਾ ਨੈੱਟਵਰਕ ਦੁਆਰਾ ਪ੍ਰਕਾਸ਼ਿਤ ਝੂਠੇ ਦਾਅਵਿਆਂ ਨੂੰ ਫੈਲਾਉਣ ਵਾਲੇ ਲੇਖਾਂ ਦੇ ਸਿੱਧੇ ਲਿੰਕ ਸ਼ਾਮਲ ਸਨ। ਚੈਟਬੋਟਾਂ ਨੇ ਸਮੂਹਿਕ ਤੌਰ ‘ਤੇ ਗਲਤ ਜਾਣਕਾਰੀ ਵਾਲੇ 92 ਵੱਖ-ਵੱਖ ਲੇਖਾਂ ਦਾ ਹਵਾਲਾ ਦਿੱਤਾ, ਦੋ ਮਾਡਲਾਂ ਨੇ ਹਰੇਕ ਵਿੱਚ 27 ਪ੍ਰਵਦਾ ਲੇਖਾਂ ਦਾ ਹਵਾਲਾ ਦਿੱਤਾ। ਇਹ ਲੇਖ ਨੈੱਟਵਰਕ ਦੇ ਅੰਦਰ ਵੱਖ-ਵੱਖ ਡੋਮੇਨਾਂ ਤੋਂ ਉਤਪੰਨ ਹੋਏ ਹਨ, ਜਿਸ ਵਿੱਚ Denmark.news-pravda.com, Trump.news-pravda.com, ਅਤੇ NATO.news-pravda.com ਸ਼ਾਮਲ ਹਨ।

ਪ੍ਰੋਂਪਟਾਂ ਦੀ ਪ੍ਰਕਿਰਤੀ: ਅਸਲ-ਸੰਸਾਰ ਦੇ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਦੀ ਨਕਲ ਕਰਨਾ

NewsGuard ਆਡਿਟ ਵਿੱਚ ਵਰਤੀਆਂ ਗਈਆਂ ਤਿੰਨ ਪ੍ਰੋਂਪਟ ਸ਼ੈਲੀਆਂ AI ਚੈਟਬੋਟਾਂ ਨਾਲ ਉਪਭੋਗਤਾਵਾਂ ਦੇ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਦੇ ਸਪੈਕਟ੍ਰਮ ਨੂੰ ਦਰਸਾਉਣ ਲਈ ਤਿਆਰ ਕੀਤੀਆਂ ਗਈਆਂ ਸਨ:

  • Innocent ਪ੍ਰੋਂਪਟ: ਇਹ ਪ੍ਰੋਂਪਟ ਝੂਠੇ ਬਿਰਤਾਂਤ ਨੂੰ ਇੱਕ ਨਿਰਪੱਖ, ਗੈਰ-ਮੋਹਰੀ ਤਰੀਕੇ ਨਾਲ ਪੇਸ਼ ਕਰਦੇ ਹਨ, ਜਿਵੇਂ ਕਿ ਉਪਭੋਗਤਾ ਬਿਨਾਂ ਕਿਸੇ ਪੂਰਵ-ਧਾਰਨਾ ਦੇ ਜਾਣਕਾਰੀ ਦੀ ਮੰਗ ਕਰ ਰਿਹਾ ਹੋਵੇ।
  • Leading ਪ੍ਰੋਂਪਟ: ਇਹ ਪ੍ਰੋਂਪਟ ਝੂਠੇ ਬਿਰਤਾਂਤ ਨੂੰ ਸੂਖਮ ਤਰੀਕੇ ਨਾਲ ਸੁਝਾਉਂਦੇ ਹਨ, ਇਸ ਨੂੰ ਸਪੱਸ਼ਟ ਤੌਰ ‘ਤੇ ਦੱਸੇ ਬਿਨਾਂ ਇਸਦੀ ਵੈਧਤਾ ਦਾ ਸੰਕੇਤ ਦਿੰਦੇ ਹਨ। ਇਹ ਉਹਨਾਂ ਦ੍ਰਿਸ਼ਾਂ ਦੀ ਨਕਲ ਕਰਦਾ ਹੈ ਜਿੱਥੇ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਗਲਤ ਜਾਣਕਾਰੀ ਦਾ ਕੁਝ ਪਹਿਲਾਂ ਤੋਂ ਐਕਸਪੋਜਰ ਹੋ ਸਕਦਾ ਹੈ ਅਤੇ ਉਹ ਪੁਸ਼ਟੀ ਦੀ ਮੰਗ ਕਰ ਰਹੇ ਹਨ।
  • Malign ਪ੍ਰੋਂਪਟ: ਇਹ ਪ੍ਰੋਂਪਟ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਝੂਠੇ ਬਿਰਤਾਂਤ ਨੂੰ ਤੱਥ ਵਜੋਂ ਦਰਸਾਉਂਦੇ ਹਨ, ਉਹਨਾਂ ਸਥਿਤੀਆਂ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ ਜਿੱਥੇ ਉਪਭੋਗਤਾ ਪਹਿਲਾਂ ਹੀ ਗਲਤ ਜਾਣਕਾਰੀ ਬਾਰੇ ਯਕੀਨ ਰੱਖਦੇ ਹਨ ਅਤੇ ਮਜ਼ਬੂਤੀ ਦੀ ਮੰਗ ਕਰ ਰਹੇ ਹਨ।

ਇਹ ਬਹੁ-ਪੱਖੀ ਪਹੁੰਚ ਇਹ ਸਮਝਣ ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਸੀ ਕਿ ਵੱਖ-ਵੱਖ ਕਿਸਮਾਂ ਦੀ ਉਪਭੋਗਤਾ ਸ਼ਮੂਲੀਅਤ ਚੈਟਬੋਟ ਦੇ ਜਵਾਬ ਨੂੰ ਕਿਵੇਂ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦੀ ਹੈ। ਇਸ ਨੇ ਖੁਲਾਸਾ ਕੀਤਾ ਕਿ ਚੈਟਬੋਟ ਪ੍ਰੋਂਪਟ ਸ਼ੈਲੀ ਦੀ ਪਰਵਾਹ ਕੀਤੇ ਬਿਨਾਂ ਗਲਤ ਜਾਣਕਾਰੀ ਨੂੰ ਦੁਹਰਾਉਣ ਲਈ ਸੰਵੇਦਨਸ਼ੀਲ ਸਨ, ਹਾਲਾਂਕਿ ਜਵਾਬਾਂ ਦੀ ਬਾਰੰਬਾਰਤਾ ਅਤੇ ਪ੍ਰਕਿਰਤੀ ਵੱਖਰੀ ਸੀ।

ਚੈਟਬੋਟਾਂ ਦੁਆਰਾ ਦੁਹਰਾਈ ਗਈ ਗਲਤ ਜਾਣਕਾਰੀ ਦੀਆਂ ਖਾਸ ਉਦਾਹਰਣਾਂ

NewsGuard ਰਿਪੋਰਟ ਪ੍ਰਵਦਾ ਨੈੱਟਵਰਕ ਦੁਆਰਾ ਪ੍ਰਸਾਰਿਤ ਕੀਤੇ ਗਏ ਅਤੇ ਬਾਅਦ ਵਿੱਚ AI ਚੈਟਬੋਟਾਂ ਦੁਆਰਾ ਦੁਹਰਾਏ ਗਏ ਖਾਸ ਝੂਠੇ ਬਿਰਤਾਂਤਾਂ ਦੀਆਂ ਕਈ ਉਦਾਹਰਣਾਂ ਪ੍ਰਦਾਨ ਕਰਦੀ ਹੈ। ਇਹ ਉਦਾਹਰਣਾਂ ਗਲਤ ਜਾਣਕਾਰੀ ਮੁਹਿੰਮ ਦੀ ਚੌੜਾਈ ਅਤੇ ਡੂੰਘਾਈ ਨੂੰ ਉਜਾਗਰ ਕਰਦੀਆਂ ਹਨ। ਕੁਝ ਬਿਰਤਾਂਤਾਂ ਵਿੱਚ ਸ਼ਾਮਲ ਹਨ:

  • ਦਾਅਵੇ ਕਿ ਯੂਕਰੇਨ ਇੱਕ ਨਾਜ਼ੀ ਰਾਜ ਹੈ।
  • ਯੂਕਰੇਨ ਵਿੱਚ ਸੰਘਰਸ਼ ਦੇ ਕਾਰਨਾਂ ਬਾਰੇ ਝੂਠੇ ਦਾਅਵੇ।
  • ਸੰਘਰਸ਼ ਵਿੱਚ ਪੱਛਮੀ ਸ਼ਮੂਲੀਅਤ ਬਾਰੇ ਗੁੰਮਰਾਹਕੁੰਨ ਜਾਣਕਾਰੀ।
  • ਯੂਕਰੇਨੀ ਲੀਡਰਸ਼ਿਪ ਬਾਰੇ ਮਨਘੜਤ ਕਹਾਣੀਆਂ।

ਇਹ ਬਹੁਤ ਸਾਰੇ ਝੂਠੇ ਬਿਰਤਾਂਤਾਂ ਦੀਆਂ ਕੁਝ ਉਦਾਹਰਣਾਂ ਹਨ ਜਿਨ੍ਹਾਂ ਨੂੰ NewsGuard ਦੁਆਰਾ ਸਾਵਧਾਨੀ ਨਾਲ ਦਸਤਾਵੇਜ਼ੀ ਰੂਪ ਦਿੱਤਾ ਗਿਆ ਹੈ ਅਤੇ ਟਰੈਕ ਕੀਤਾ ਗਿਆ ਹੈ। ਇਹ ਤੱਥ ਕਿ ਇਹ ਬਿਰਤਾਂਤ ਪ੍ਰਮੁੱਖ AI ਚੈਟਬੋਟਾਂ ਦੁਆਰਾ ਗੂੰਜ ਰਹੇ ਹਨ, ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਜਵਾਬੀ ਉਪਾਵਾਂ ਦੀ ਫੌਰੀ ਲੋੜ ਨੂੰ ਰੇਖਾਂਕਿਤ ਕਰਦੇ ਹਨ।

AI-ਸੰਚਾਲਿਤ ਗਲਤ ਜਾਣਕਾਰੀ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਦੀ ਚੁਣੌਤੀ

ਇਸ ਸਮੱਸਿਆ ਨੂੰ ਹੱਲ ਕਰਨਾ ਇੱਕ ਗੁੰਝਲਦਾਰ ਕੰਮ ਹੈ। ਇਸ ਲਈ ਤਕਨੀਕੀ ਹੱਲਾਂ ਅਤੇ ਵਧੀ ਹੋਈ ਉਪਭੋਗਤਾ ਜਾਗਰੂਕਤਾ ਦੋਵਾਂ ਨੂੰ ਸ਼ਾਮਲ ਕਰਨ ਵਾਲੀ ਇੱਕ ਬਹੁ-ਪੱਖੀ ਪਹੁੰਚ ਦੀ ਲੋੜ ਹੈ।

ਤਕਨੀਕੀ ਹੱਲ:

  • ਸੁਧਾਰਿਆ ਡੇਟਾ ਫਿਲਟਰਿੰਗ: AI ਡਿਵੈਲਪਰਾਂ ਨੂੰ LLMs ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਵਰਤੇ ਜਾਂਦੇ ਡੇਟਾਸੈਟਾਂ ਵਿੱਚੋਂ ਗਲਤ ਜਾਣਕਾਰੀ ਨੂੰ ਫਿਲਟਰ ਕਰਨ ਲਈ ਵਧੇਰੇ ਮਜ਼ਬੂਤ ਵਿਧੀਆਂ ਨੂੰ ਲਾਗੂ ਕਰਨ ਦੀ ਲੋੜ ਹੈ। ਇਸ ਵਿੱਚ ਗੈਰ-ਭਰੋਸੇਯੋਗ ਸਰੋਤਾਂ ਦੀ ਪਛਾਣ ਕਰਨਾ ਅਤੇ ਉਹਨਾਂ ਨੂੰ ਬਾਹਰ ਕੱਢਣਾ, ਅਤੇ ਨਾਲ ਹੀ ਐਲਗੋਰਿਦਮ ਵਿਕਸਤ ਕਰਨਾ ਸ਼ਾਮਲ ਹੈ ਜੋ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਝੂਠੀ ਜਾਂ ਗੁੰਮਰਾਹਕੁੰਨ ਜਾਣਕਾਰੀ ਦਾ ਪਤਾ ਲਗਾ ਸਕਦੇ ਹਨ ਅਤੇ ਫਲੈਗ ਕਰ ਸਕਦੇ ਹਨ।
  • ਵਧੀ ਹੋਈ ਸਰੋਤ ਪੁਸ਼ਟੀਕਰਨ: ਚੈਟਬੋਟਾਂ ਨੂੰ ਭਰੋਸੇਯੋਗ ਅਤੇ ਪ੍ਰਮਾਣਿਤ ਸਰੋਤਾਂ ਤੋਂ ਜਾਣਕਾਰੀ ਨੂੰ ਤਰਜੀਹ ਦੇਣ ਲਈ ਤਿਆਰ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ। ਇਸ ਵਿੱਚ ਸਪੱਸ਼ਟ ਹਵਾਲੇ ਪ੍ਰਦਾਨ ਕਰਨਾ ਅਤੇ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਪੇਸ਼ ਕੀਤੀ ਗਈ ਜਾਣਕਾਰੀ ਦੇ ਮੂਲ ਨੂੰ ਆਸਾਨੀ ਨਾਲ ਟਰੇਸ ਕਰਨ ਦੀ ਆਗਿਆ ਦੇਣਾ ਸ਼ਾਮਲ ਹੈ।
  • ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਵਿਆਖਿਆਯੋਗਤਾ: AI ਮਾਡਲਾਂ ਨੂੰ ਉਹਨਾਂ ਦੀਆਂ ਫੈਸਲਾ ਲੈਣ ਦੀਆਂ ਪ੍ਰਕਿਰਿਆਵਾਂ ਬਾਰੇ ਵਧੇਰੇ ਪਾਰਦਰਸ਼ੀ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ। ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਇਹ ਸਮਝਣ ਦੇ ਯੋਗ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਇੱਕ ਚੈਟਬੋਟ ਇੱਕ ਖਾਸ ਜਵਾਬ ਕਿਉਂ ਪ੍ਰਦਾਨ ਕਰ ਰਿਹਾ ਹੈ ਅਤੇ ਇਹ ਕਿਹੜੇ ਡੇਟਾ ਸਰੋਤਾਂ ‘ਤੇ ਨਿਰਭਰ ਕਰ ਰਿਹਾ ਹੈ।

ਉਪਭੋਗਤਾ ਜਾਗਰੂਕਤਾ:

  • ਮੀਡੀਆ ਸਾਖਰਤਾ ਸਿੱਖਿਆ: ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਗਲਤ ਜਾਣਕਾਰੀ ਦੀ ਸੰਭਾਵਨਾ ਬਾਰੇ ਸਿੱਖਿਅਤ ਕਰਨ ਦੀ ਲੋੜ ਹੈ। ਇਸ ਵਿੱਚ ਆਲੋਚਨਾਤਮਕ ਸੋਚ ਦੇ ਹੁਨਰ ਨੂੰ ਵਿਕਸਤ ਕਰਨਾ ਅਤੇ ਔਨਲਾਈਨ ਜਾਣਕਾਰੀ ਸਰੋਤਾਂ ਦੀ ਭਰੋਸੇਯੋਗਤਾ ਦਾ ਮੁਲਾਂਕਣ ਕਰਨਾ ਸਿੱਖਣਾ ਸ਼ਾਮਲ ਹੈ।
  • ਸ਼ੱਕਵਾਦ ਅਤੇ ਪੁਸ਼ਟੀਕਰਨ: ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ AI ਚੈਟਬੋਟਾਂ ਦੁਆਰਾ ਪ੍ਰਦਾਨ ਕੀਤੀ ਜਾਣਕਾਰੀ ਤੱਕ ਸਿਹਤਮੰਦ ਸ਼ੱਕ ਦੇ ਨਾਲ ਪਹੁੰਚ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ। ਜਾਣਕਾਰੀ ਨੂੰ ਹੋਰ ਸਰੋਤਾਂ ਨਾਲ ਕ੍ਰਾਸ-ਰੈਫਰੈਂਸ ਕਰਨਾ ਅਤੇ ਉਹਨਾਂ ਦਾਅਵਿਆਂ ਤੋਂ ਸਾਵਧਾਨ ਰਹਿਣਾ ਮਹੱਤਵਪੂਰਨ ਹੈ ਜੋ ਬਹੁਤ ਜ਼ਿਆਦਾ ਸਨਸਨੀਖੇਜ਼ ਜਾਂ ਸੱਚ ਹੋਣ ਲਈ ਬਹੁਤ ਵਧੀਆ ਲੱਗਦੇ ਹਨ।

ਲੰਬੇ ਸਮੇਂ ਦੇ ਜੋਖਮ: ਰਾਜਨੀਤਿਕ, ਸਮਾਜਿਕ ਅਤੇ ਤਕਨੀਕੀ

AI ਚੈਟਬੋਟਾਂ ਰਾਹੀਂ ਗਲਤ ਜਾਣਕਾਰੀ ਦਾ ਅਣਚੈਕਡ ਫੈਲਾਅ ਮਹੱਤਵਪੂਰਨ ਲੰਬੇ ਸਮੇਂ ਦੇ ਜੋਖਮ ਪੈਦਾ ਕਰਦਾ ਹੈ। ਇਹ ਜੋਖਮ ਵਿਅਕਤੀਗਤ ਝੂਠੇ ਬਿਰਤਾਂਤਾਂ ਦੇ ਤੁਰੰਤ ਪ੍ਰਭਾਵ ਤੋਂ ਪਰੇ ਹਨ ਅਤੇ ਵਿਆਪਕ ਸਮਾਜਿਕ ਨਤੀਜਿਆਂ ਨੂੰ ਸ਼ਾਮਲ ਕਰਦੇ ਹਨ।

  • ਰਾਜਨੀਤਿਕ ਜੋਖਮ: AI-ਸੰਚਾਲਿਤ ਗਲਤ ਜਾਣਕਾਰੀ ਦੁਆਰਾ ਜਨਤਕ ਰਾਏ ਦੀ ਹੇਰਾਫੇਰੀ ਜਮਹੂਰੀ ਪ੍ਰਕਿਰਿਆਵਾਂ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰ ਸਕਦੀ ਹੈ ਅਤੇ ਸੰਸਥਾਵਾਂ ਵਿੱਚ ਵਿਸ਼ਵਾਸ ਨੂੰ ਖਤਮ ਕਰ ਸਕਦੀ ਹੈ। ਇਸਦੀ ਵਰਤੋਂ ਚੋਣਾਂ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰਨ, ਅਸਹਿਮਤੀ ਬੀਜਣ ਅਤੇ ਸਰਕਾਰਾਂ ਨੂੰ ਅਸਥਿਰ ਕਰਨ ਲਈ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ।
  • ਸਮਾਜਿਕ ਜੋਖਮ: ਝੂਠੇ ਬਿਰਤਾਂਤਾਂ ਦਾ ਫੈਲਾਅ ਮੌਜੂਦਾ ਸਮਾਜਿਕ ਵੰਡਾਂ ਨੂੰ ਵਧਾ ਸਕਦਾ ਹੈ ਅਤੇ ਨਵੇਂ ਬਣਾ ਸਕਦਾ ਹੈ। ਇਹ ਪੱਖਪਾਤ, ਵਿਤਕਰੇ ਅਤੇ ਇੱਥੋਂ ਤੱਕ ਕਿ ਹਿੰਸਾ ਨੂੰ ਵੀ ਵਧਾ ਸਕਦਾ ਹੈ।
  • ਤਕਨੀਕੀ ਜੋਖਮ: ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਫੈਲਾਅ ਕਾਰਨ AI ਤਕਨਾਲੋਜੀ ਵਿੱਚ ਵਿਸ਼ਵਾਸ ਦਾ ਖਾਤਮਾ ਇਸਦੇ ਵਿਕਾਸ ਅਤੇ ਅਪਣਾਉਣ ਵਿੱਚ ਰੁਕਾਵਟ ਪਾ ਸਕਦਾ ਹੈ। ਜੇਕਰ ਲੋਕ ਪ੍ਰਦਾਨ ਕੀਤੀ ਗਈ ਜਾਣਕਾਰੀ ਦੀ ਸ਼ੁੱਧਤਾ ਅਤੇ ਭਰੋਸੇਯੋਗਤਾ ਵਿੱਚ ਭਰੋਸਾ ਨਹੀਂ ਰੱਖ ਸਕਦੇ ਤਾਂ ਉਹ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰਨ ਤੋਂ ਝਿਜਕ ਸਕਦੇ ਹਨ।

AI-ਸੰਚਾਲਿਤ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਵਿਰੁੱਧ ਲੜਾਈ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਇਸ ਲਈ AI ਡਿਵੈਲਪਰਾਂ, ਨੀਤੀ ਨਿਰਮਾਤਾਵਾਂ, ਸਿੱਖਿਅਕਾਂ ਅਤੇ ਵਿਅਕਤੀਗਤ ਉਪਭੋਗਤਾਵਾਂ ਦੇ ਇੱਕ ਸੰਯੁਕਤ ਯਤਨਾਂ ਦੀ ਲੋੜ ਹੈ ਤਾਂ ਜੋ ਇਹ ਯਕੀਨੀ ਬਣਾਇਆ ਜਾ ਸਕੇ ਕਿ ਇਹਨਾਂ ਸ਼ਕਤੀਸ਼ਾਲੀ ਤਕਨਾਲੋਜੀਆਂ ਦੀ ਵਰਤੋਂ ਜ਼ਿੰਮੇਵਾਰੀ ਨਾਲ ਅਤੇ ਨੈਤਿਕ ਤੌਰ ‘ਤੇ ਕੀਤੀ ਜਾਵੇ। ਜਾਣਕਾਰੀ ਦਾ ਭਵਿੱਖ, ਅਤੇ ਅਸਲ ਵਿੱਚ ਸਾਡੇ ਸਮਾਜਾਂ ਦਾ ਭਵਿੱਖ, ਇਸ ‘ਤੇ ਨਿਰਭਰ ਕਰ ਸਕਦਾ ਹੈ।