‘LLM ਗਰੂਮਿੰਗ’ ਦੀਆਂ ਵਿਧੀਆਂ
ਪ੍ਰਵਦਾ ਨੈੱਟਵਰਕ ਲਗਭਗ 150 ਨਕਲੀ ਖਬਰਾਂ ਵਾਲੀਆਂ ਸਾਈਟਾਂ ਦੇ ਇੱਕ ਵਿਸ਼ਾਲ ਜਾਲ ਰਾਹੀਂ ਕੰਮ ਕਰਦਾ ਹੈ। ਇਹ ਸਾਈਟਾਂ, ਹਾਲਾਂਕਿ, ਮਨੁੱਖੀ ਖਪਤ ਲਈ ਨਹੀਂ ਬਣਾਈਆਂ ਗਈਆਂ ਹਨ। ਘੱਟੋ-ਘੱਟ ਟ੍ਰੈਫਿਕ ਦੇ ਨਾਲ - ਜ਼ਿਆਦਾਤਰ ਪੰਨਿਆਂ ‘ਤੇ ਪ੍ਰਤੀ ਮਹੀਨਾ 1,000 ਤੋਂ ਘੱਟ ਵਿਜ਼ਟਰ ਆਉਂਦੇ ਹਨ - ਉਹਨਾਂ ਦਾ ਮੁੱਖ ਉਦੇਸ਼ AI ਸਿਸਟਮਾਂ ਨੂੰ ਸਮੱਗਰੀ ਪ੍ਰਦਾਨ ਕਰਨਾ ਹੈ। ਇਹ ਰਣਨੀਤੀ ਗਲਤ ਜਾਣਕਾਰੀ ਲਈ ਇੱਕ ਨਵੀਂ ਪਹੁੰਚ ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ, ਜੋ ਕਿ ਰਵਾਇਤੀ ਤਰੀਕਿਆਂ ਤੋਂ ਪਰੇ ਹੈ ਜੋ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਮਨੁੱਖੀ ਪਾਠਕਾਂ ਨੂੰ ਨਿਸ਼ਾਨਾ ਬਣਾਉਂਦੇ ਹਨ।
ਇਸ ਰਣਨੀਤੀ ਨੂੰ ‘LLM ਗਰੂਮਿੰਗ‘ ਵਜੋਂ ਜਾਣਿਆ ਜਾਂਦਾ ਹੈ, ਇੱਕ ਸ਼ਬਦ ਜੋ AI ਸਿਖਲਾਈ ਡੇਟਾ ਦੇ ਜਾਣਬੁੱਝ ਕੇ ਹੇਰਾਫੇਰੀ ਦਾ ਵਰਣਨ ਕਰਦਾ ਹੈ। ਨੈੱਟਵਰਕ ਇਸ ਨੂੰ ਵੱਡੇ ਪੱਧਰ ‘ਤੇ ਸਮੱਗਰੀ ਪ੍ਰਕਾਸ਼ਿਤ ਕਰਕੇ ਪ੍ਰਾਪਤ ਕਰਦਾ ਹੈ ਜੋ ਖੋਜ ਇੰਜਣਾਂ (SEO) ਲਈ ਬਹੁਤ ਜ਼ਿਆਦਾ ਅਨੁਕੂਲਿਤ ਹੈ। ਇਹ ਯਕੀਨੀ ਬਣਾਉਂਦਾ ਹੈ ਕਿ ਪ੍ਰਚਾਰ ਨੂੰ AI ਮਾਡਲਾਂ ਦੁਆਰਾ ਆਸਾਨੀ ਨਾਲ ਗ੍ਰਹਿਣ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਅਤੇ ਮੁੜ ਵੰਡਿਆ ਜਾਂਦਾ ਹੈ, ਉਹਨਾਂ ਦੇ ਆਉਟਪੁੱਟ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰਦਾ ਹੈ ਅਤੇ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਜਨਤਕ ਧਾਰਨਾ ਨੂੰ ਆਕਾਰ ਦਿੰਦਾ ਹੈ।
ਜੌਨ ਮਾਰਕ ਡੌਗਨ, ਮਾਸਕੋ ਵਿੱਚ ਰਹਿਣ ਵਾਲਾ ਇੱਕ ਅਮਰੀਕੀ ਅਤੇ ਨਿਊਜ਼ਗਾਰਡ ਦੁਆਰਾ ਰੂਸੀ ਗਲਤ ਜਾਣਕਾਰੀ ਮੁਹਿੰਮਾਂ ਦਾ ਸਮਰਥਨ ਕਰਨ ਦੇ ਦੋਸ਼ ਵਿੱਚ ਪਛਾਣਿਆ ਗਿਆ, ਨੇ ਇੱਕ ਸਥਾਨਕ ਕਾਨਫਰੰਸ ਵਿੱਚ ਅੰਤਰੀਵ ਸਿਧਾਂਤ ਦੀ ਵਿਆਖਿਆ ਕੀਤੀ: “ਇਹ ਜਾਣਕਾਰੀ ਜਿੰਨੀ ਵਿਭਿੰਨ ਹੋਵੇਗੀ, ਇਹ ਸਿਖਲਾਈ ਅਤੇ ਭਵਿੱਖ ਦੇ AI ਨੂੰ ਓਨਾ ਹੀ ਪ੍ਰਭਾਵਿਤ ਕਰੇਗੀ।” ਇਹ ਬਿਆਨ ਓਪਰੇਸ਼ਨ ਦੇ ਛੁਪੇ ਹੋਏ ਸੁਭਾਅ ਨੂੰ ਉਜਾਗਰ ਕਰਦਾ ਹੈ, ਜਿਸਦਾ ਉਦੇਸ਼ AI ਸਿਸਟਮਾਂ ਦੇ ਬਣਾਏ ਗਏ ਬੁਨਿਆਦੀ ਡੇਟਾ ਨੂੰ ਸੂਖਮ ਤਰੀਕੇ ਨਾਲ ਭ੍ਰਿਸ਼ਟ ਕਰਨਾ ਹੈ।
ਓਪਰੇਸ਼ਨ ਦਾ ਪੈਮਾਨਾ ਅਤੇ ਦਾਇਰਾ
ਪ੍ਰਵਦਾ ਨੈੱਟਵਰਕ ਦੀਆਂ ਗਤੀਵਿਧੀਆਂ ਦਾ ਪੈਮਾਨਾ ਹੈਰਾਨ ਕਰਨ ਵਾਲਾ ਹੈ। ਇਕੱਲੇ 2024 ਵਿੱਚ, ਇਹਨਾਂ ਸਾਈਟਾਂ ਨੇ 49 ਦੇਸ਼ਾਂ ਵਿੱਚ ਲਗਭਗ 3.6 ਮਿਲੀਅਨ ਲੇਖ ਪ੍ਰਕਾਸ਼ਿਤ ਕੀਤੇ। ਡੋਮੇਨ ਨਾਮ ਰਣਨੀਤਕ ਤੌਰ ‘ਤੇ ਜਾਇਜ਼ ਖਬਰਾਂ ਦੇ ਸਰੋਤਾਂ ਦੀ ਨਕਲ ਕਰਨ ਲਈ ਚੁਣੇ ਜਾਂਦੇ ਹਨ, ਉਦਾਹਰਨਾਂ ਵਿੱਚ NATO.News-Pravda.com, Trump.News-Pravda.com, ਅਤੇ Macron.News-Pravda.com ਸ਼ਾਮਲ ਹਨ। ਇਹ ਨਕਲ ਧੋਖੇ ਦੀ ਇੱਕ ਪਰਤ ਜੋੜਦੀ ਹੈ, ਜਿਸ ਨਾਲ ਆਮ ਨਿരീക്ഷਕਾਂ ਲਈ ਪ੍ਰਮਾਣਿਕ ਅਤੇ ਮਨਘੜਤ ਸਮੱਗਰੀ ਵਿੱਚ ਫਰਕ ਕਰਨਾ ਵਧੇਰੇ ਮੁਸ਼ਕਲ ਹੋ ਜਾਂਦਾ ਹੈ।
ਸਮੱਗਰੀ ਖੁਦ ਵਿਸ਼ਿਆਂ ਦੀ ਇੱਕ ਵਿਸ਼ਾਲ ਸ਼੍ਰੇਣੀ ਵਿੱਚ ਫੈਲੀ ਹੋਈ ਹੈ, ਪਰ ਲਗਾਤਾਰ ਰੂਸ ਪੱਖੀ ਬਿਰਤਾਂਤਾਂ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਦੀ ਹੈ ਅਤੇ ਪੱਛਮੀ ਦ੍ਰਿਸ਼ਟੀਕੋਣਾਂ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰਦੀ ਹੈ। ਨੈੱਟਵਰਕ ਘੱਟੋ-ਘੱਟ ਅਪ੍ਰੈਲ 2022 ਤੋਂ ਸਰਗਰਮ ਹੈ, ਅਤੇ ਨਿਊਜ਼ਗਾਰਡ ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਉਸ ਸਮੇਂ ਅਤੇ ਫਰਵਰੀ 2025 ਦੇ ਵਿਚਕਾਰ ਪ੍ਰਵਦਾ ਨੈੱਟਵਰਕ ਦੁਆਰਾ ਵੰਡੀਆਂ ਗਈਆਂ 15 ਪ੍ਰਮਾਣਿਤ ਝੂਠੀਆਂ ਕਹਾਣੀਆਂ ‘ਤੇ ਕੇਂਦ੍ਰਿਤ ਹੈ।
AI ਚੈਟਬੌਟਸ ਦੀ ਕਮਜ਼ੋਰੀ
ਨਿਊਜ਼ਗਾਰਡ ਦੀ ਜਾਂਚ ਵਿੱਚ ਪ੍ਰਵਦਾ ਨੈੱਟਵਰਕ ਦੀ ਗਲਤ ਜਾਣਕਾਰੀ ਪ੍ਰਤੀ ਉਹਨਾਂ ਦੀ ਕਮਜ਼ੋਰੀ ਦਾ ਮੁਲਾਂਕਣ ਕਰਨ ਲਈ ਕਈ ਪ੍ਰਮੁੱਖ AI ਚੈਟਬੌਟਸ ਦੀ ਜਾਂਚ ਸ਼ਾਮਲ ਹੈ। ਜਾਂਚ ਕੀਤੇ ਗਏ ਸਿਸਟਮਾਂ ਵਿੱਚ ਸ਼ਾਮਲ ਹਨ:
- OpenAI ਦਾ ChatGPT-4o
- You.com ਦਾ ਸਮਾਰਟ ਅਸਿਸਟੈਂਟ
- xAI ਦਾ Grok
- Inflection ਦਾ Pi
- Mistral ਦਾ le Chat
- Microsoft ਦਾ Copilot
- Meta AI
- Anthropic ਦਾ Claude
- Google ਦਾ Gemini
- Perplexity
ਨਤੀਜੇ ਚਿੰਤਾਜਨਕ ਸਨ। AI ਚੈਟਬੌਟਸ ਨੇ 33.5% ਮਾਮਲਿਆਂ ਵਿੱਚ ਪ੍ਰਵਦਾ ਨੈੱਟਵਰਕ ਤੋਂ ਝੂਠੇ ਬਿਰਤਾਂਤਾਂ ਨੂੰ ਸਵੀਕਾਰ ਕੀਤਾ। ਜਦੋਂ ਕਿ ਸਿਸਟਮਾਂ ਨੇ 48.2% ਮਾਮਲਿਆਂ ਵਿੱਚ ਰੂਸੀ ਸਮੱਗਰੀ ਨੂੰ ਗਲਤ ਜਾਣਕਾਰੀ ਵਜੋਂ ਸਹੀ ਢੰਗ ਨਾਲ ਪਛਾਣਿਆ, ਉਹਨਾਂ ਨੇ ਕਈ ਵਾਰ ਗੁੰਮਰਾਹਕੁੰਨ ਸਰੋਤਾਂ ਦਾ ਹਵਾਲਾ ਦਿੱਤਾ, ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਉਹਨਾਂ ਨੂੰ ਬੇਲੋੜੀ ਭਰੋਸੇਯੋਗਤਾ ਪ੍ਰਦਾਨ ਕੀਤੀ। ਬਾਕੀ 18.2% ਜਵਾਬ ਅਸਪਸ਼ਟ ਸਨ, ਜੋ ਕਿ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਸਮੱਗਰੀ ਦੇ ਯੁੱਗ ਵਿੱਚ ਸੱਚਾਈ ਨੂੰ ਝੂਠ ਤੋਂ ਵੱਖ ਕਰਨ ਵਿੱਚ ਚੁਣੌਤੀਆਂ ਨੂੰ ਹੋਰ ਉਜਾਗਰ ਕਰਦੇ ਹਨ।
AI-ਸੰਚਾਲਿਤ ਗਲਤ ਜਾਣਕਾਰੀ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਦੀ ਚੁਣੌਤੀ
ਇਸ ਕਿਸਮ ਦੀ ਹੇਰਾਫੇਰੀ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨਾ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਚੁਣੌਤੀ ਪੇਸ਼ ਕਰਦਾ ਹੈ। ਜਾਣੀਆਂ-ਪਛਾਣੀਆਂ ਗਲਤ ਜਾਣਕਾਰੀ ਵਾਲੀਆਂ ਵੈੱਬਸਾਈਟਾਂ ਨੂੰ ਬਲੌਕ ਕਰਨ ਦੇ ਰਵਾਇਤੀ ਤਰੀਕੇ ਅਸਰਦਾਰ ਸਾਬਤ ਨਹੀਂ ਹੋ ਰਹੇ ਹਨ। ਜਦੋਂ ਅਧਿਕਾਰੀ ਪ੍ਰਵਦਾ ਡੋਮੇਨਾਂ ਨੂੰ ਬਲੌਕ ਕਰਦੇ ਹਨ, ਤਾਂ ਨਵੇਂ ਡੋਮੇਨ ਤੇਜ਼ੀ ਨਾਲ ਉਭਰਦੇ ਹਨ, ਜੋ ਨੈੱਟਵਰਕ ਦੀ ਚੁਸਤੀ ਅਤੇ ਲਚਕਤਾ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ।
ਇਸ ਤੋਂ ਇਲਾਵਾ, ਗਲਤ ਜਾਣਕਾਰੀ ਇੱਕੋ ਸਮੇਂ ਕਈ ਚੈਨਲਾਂ ਰਾਹੀਂ ਵਹਿੰਦੀ ਹੈ, ਅਕਸਰ ਵੱਖ-ਵੱਖ ਨੈੱਟਵਰਕ ਸਾਈਟਾਂ ਇੱਕ ਦੂਜੇ ਦੀ ਸਮੱਗਰੀ ਨੂੰ ਦੁਬਾਰਾ ਪੇਸ਼ ਕਰਦੀਆਂ ਹਨ। ਇਹ ਆਪਸ ਵਿੱਚ ਜੁੜੇ ਸਰੋਤਾਂ ਦਾ ਇੱਕ ਗੁੰਝਲਦਾਰ ਜਾਲ ਬਣਾਉਂਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਪ੍ਰਚਾਰ ਨੂੰ ਇਸਦੀ ਜੜ੍ਹ ਵਿੱਚ ਅਲੱਗ ਕਰਨਾ ਅਤੇ ਬੇਅਸਰ ਕਰਨਾ ਮੁਸ਼ਕਲ ਹੋ ਜਾਂਦਾ ਹੈ। ਵੈੱਬਸਾਈਟਾਂ ਨੂੰ ਬਲੌਕ ਕਰਨਾ ਵਿਆਪਕ, ਤਾਲਮੇਲ ਵਾਲੀ ਮੁਹਿੰਮ ਦੇ ਵਿਰੁੱਧ ਸੀਮਤ ਸੁਰੱਖਿਆ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ।
ਵਿਆਪਕ ਸੰਦਰਭ: ਰਾਜ-ਪ੍ਰਯੋਜਿਤ AI ਹੇਰਾਫੇਰੀ
ਪ੍ਰਵਦਾ ਨੈੱਟਵਰਕ ਦੀਆਂ ਗਤੀਵਿਧੀਆਂ ਅਲੱਗ-ਥਲੱਗ ਘਟਨਾਵਾਂ ਨਹੀਂ ਹਨ। ਉਹ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਉਦੇਸ਼ਾਂ ਲਈ AI ਦਾ ਲਾਭ ਉਠਾਉਣ ਲਈ ਰਾਜ-ਪ੍ਰਯੋਜਿਤ ਯਤਨਾਂ ਦੇ ਇੱਕ ਵਿਆਪਕ ਪੈਟਰਨ ਨਾਲ ਮੇਲ ਖਾਂਦੀਆਂ ਹਨ। ਇੱਕ ਹਾਲੀਆ OpenAI ਅਧਿਐਨ ਨੇ ਖੁਲਾਸਾ ਕੀਤਾ ਹੈ ਕਿ ਰੂਸ, ਚੀਨ, ਈਰਾਨ ਅਤੇ ਇਜ਼ਰਾਈਲ ਦੇ ਰਾਜ-ਸਮਰਥਿਤ ਅਦਾਕਾਰਾਂ ਨੇ ਪਹਿਲਾਂ ਹੀ ਪ੍ਰਚਾਰ ਮੁਹਿੰਮਾਂ ਲਈ AI ਸਿਸਟਮਾਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕੀਤੀ ਹੈ। ਇਹ ਓਪਰੇਸ਼ਨ ਅਕਸਰ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਸਮੱਗਰੀ ਨੂੰ ਰਵਾਇਤੀ, ਹੱਥੀਂ ਬਣਾਈ ਗਈ ਸਮੱਗਰੀ ਨਾਲ ਜੋੜਦੇ ਹਨ, ਪ੍ਰਮਾਣਿਕ ਅਤੇ ਹੇਰਾਫੇਰੀ ਵਾਲੀ ਜਾਣਕਾਰੀ ਵਿਚਕਾਰ ਲਾਈਨਾਂ ਨੂੰ ਧੁੰਦਲਾ ਕਰਦੇ ਹਨ।
ਰਾਜਨੀਤਿਕ ਹੇਰਾਫੇਰੀ ਵਿੱਚ AI ਦੀ ਵਰਤੋਂ ਸਿਰਫ ਰਾਜ ਅਦਾਕਾਰਾਂ ਤੱਕ ਸੀਮਤ ਨਹੀਂ ਹੈ। ਜਰਮਨੀ ਦੀ ਦੂਰ-ਸੱਜੇ AFD ਪਾਰਟੀ ਵਰਗੇ ਰਾਜਨੀਤਿਕ ਸਮੂਹਾਂ ਨੂੰ ਵੀ ਪ੍ਰਚਾਰ ਦੇ ਉਦੇਸ਼ਾਂ ਲਈ AI ਚਿੱਤਰ ਮਾਡਲਾਂ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋਏ ਦੇਖਿਆ ਗਿਆ ਹੈ। ਇੱਥੋਂ ਤੱਕ ਕਿ ਡੋਨਾਲਡ ਟਰੰਪ ਵਰਗੀਆਂ ਸ਼ਖਸੀਅਤਾਂ ਵੀ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਸਮੱਗਰੀ ਨਾਲ ਜੁੜੀਆਂ ਹੋਈਆਂ ਹਨ, ਦੋਵੇਂ ਇੱਕ ਖਪਤਕਾਰ ਵਜੋਂ ਅਤੇ, ਵਿਰੋਧਾਭਾਸੀ ਤੌਰ ‘ਤੇ, ਅਸਲ ਜਾਣਕਾਰੀ ਨੂੰ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੇ ਝੂਠ ਵਜੋਂ ਲੇਬਲ ਕਰਕੇ। ਇਹ ਰਣਨੀਤੀ, ਜਿਸਨੂੰ ਵਿਰੋਧੀ ਪ੍ਰਚਾਰ ਦੇ ਇੱਕ ਰੂਪ ਵਜੋਂ ਪਛਾਣਿਆ ਗਿਆ ਹੈ, ਸਾਰੀ ਔਨਲਾਈਨ ਜਾਣਕਾਰੀ ਵਿੱਚ ਅਵਿਸ਼ਵਾਸ ਪੈਦਾ ਕਰਦੀ ਹੈ, ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਵਿਅਕਤੀਆਂ ਨੂੰ ਸਿਰਫ ਭਰੋਸੇਯੋਗ ਸ਼ਖਸੀਅਤਾਂ ‘ਤੇ ਭਰੋਸਾ ਕਰਨ ਲਈ ਪ੍ਰੇਰਿਤ ਕਰਦੀ ਹੈ, ਭਾਵੇਂ ਤੱਥਾਂ ਦੀ ਸ਼ੁੱਧਤਾ ਦੀ ਪਰਵਾਹ ਕੀਤੇ ਬਿਨਾਂ।
ਇੱਥੋਂ ਤੱਕ ਕਿ AI ਮਾਡਲਾਂ ਦਾ ਡਿਜ਼ਾਈਨ ਵੀ ਰਾਜ ਦੇ ਏਜੰਡਿਆਂ ਦੁਆਰਾ ਪ੍ਰਭਾਵਿਤ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਉਦਾਹਰਨ ਲਈ, ਚੀਨੀ AI ਮਾਡਲਾਂ ਨੂੰ ਸੈਂਸਰਸ਼ਿਪ ਅਤੇ ਪ੍ਰਚਾਰ ਨਾਲ ਪਹਿਲਾਂ ਤੋਂ ਲੋਡ ਕੀਤਾ ਗਿਆ ਪਾਇਆ ਗਿਆ ਹੈ, ਜੋ ਚੀਨੀ ਸਰਕਾਰ ਦੀਆਂ ਰਾਜਨੀਤਿਕ ਤਰਜੀਹਾਂ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ।
ਡੂੰਘੀ ਡੁਬਕੀ: ਝੂਠੇ ਬਿਰਤਾਂਤਾਂ ਦੀਆਂ ਖਾਸ ਉਦਾਹਰਨਾਂ
ਜਦੋਂ ਕਿ ਨਿਊਜ਼ਗਾਰਡ ਰਿਪੋਰਟ ਪ੍ਰਵਦਾ ਨੈੱਟਵਰਕ ਦੁਆਰਾ ਪ੍ਰਚਾਰੇ ਗਏ ਹਰ ਇੱਕ ਝੂਠੇ ਬਿਰਤਾਂਤ ਦਾ ਵੇਰਵਾ ਨਹੀਂ ਦਿੰਦੀ, ਪ੍ਰਮਾਣਿਤ ਝੂਠੀਆਂ ਕਹਾਣੀਆਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਕਾਰਜਪ੍ਰਣਾਲੀ ਗਲਤ ਜਾਣਕਾਰੀ ਫੈਲਾਉਣ ਦੇ ਇੱਕ ਪੈਟਰਨ ਦਾ ਸੁਝਾਅ ਦਿੰਦੀ ਹੈ ਜੋ ਕਿ ਇਸ ਲਈ ਤਿਆਰ ਕੀਤੀ ਗਈ ਹੈ:
- ਪੱਛਮੀ ਸੰਸਥਾਵਾਂ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰਨਾ: ਕਹਾਣੀਆਂ ਸ਼ਾਇਦ NATO ਨੂੰ ਹਮਲਾਵਰ ਜਾਂ ਅਸਥਿਰ ਵਜੋਂ ਗਲਤ ਢੰਗ ਨਾਲ ਪੇਸ਼ ਕਰ ਸਕਦੀਆਂ ਹਨ, ਜਾਂ ਪੱਛਮੀ ਨੇਤਾਵਾਂ ਨੂੰ ਸ਼ਾਮਲ ਕਰਨ ਵਾਲੇ ਘੁਟਾਲਿਆਂ ਨੂੰ ਘੜ ਸਕਦੀਆਂ ਹਨ।
- ਰੂਸ ਪੱਖੀ ਭਾਵਨਾਵਾਂ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨਾ: ਬਿਰਤਾਂਤ ਰੂਸ ਦੀਆਂ ਫੌਜੀ ਸਫਲਤਾਵਾਂ ਨੂੰ ਵਧਾ-ਚੜ੍ਹਾ ਕੇ ਪੇਸ਼ ਕਰ ਸਕਦੇ ਹਨ, ਇਸਦੇ ਮਨੁੱਖੀ ਅਧਿਕਾਰਾਂ ਦੀ ਉਲੰਘਣਾ ਨੂੰ ਘੱਟ ਕਰ ਸਕਦੇ ਹਨ, ਜਾਂ ਗਲੋਬਲ ਪੱਧਰ ‘ਤੇ ਇਸ ਦੀਆਂ ਕਾਰਵਾਈਆਂ ਨੂੰ ਜਾਇਜ਼ ਠਹਿਰਾ ਸਕਦੇ ਹਨ।
- ਵਿਵਾਦ ਅਤੇ ਵੰਡ ਬੀਜਣਾ: ਸਮੱਗਰੀ ਦਾ ਉਦੇਸ਼ ਪੱਛਮੀ ਦੇਸ਼ਾਂ ਦੇ ਅੰਦਰ ਮੌਜੂਦਾ ਸਮਾਜਿਕ ਅਤੇ ਰਾਜਨੀਤਿਕ ਤਣਾਅ ਨੂੰ ਵਧਾਉਣਾ, ਵੰਡਣ ਵਾਲੇ ਮੁੱਦਿਆਂ ਨੂੰ ਵਧਾਉਣਾ ਅਤੇ ਧਰੁਵੀਕਰਨ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨਾ ਹੋ ਸਕਦਾ ਹੈ।
- ਖਾਸ ਘਟਨਾਵਾਂ ਦੇ ਆਲੇ ਦੁਆਲੇ ਹਕੀਕਤ ਨੂੰ ਵਿਗਾੜਨਾ: ਚੋਣਾਂ, ਸੰਘਰਸ਼ਾਂ, ਜਾਂ ਅੰਤਰਰਾਸ਼ਟਰੀ ਘਟਨਾਵਾਂ ਵਰਗੀਆਂ ਘਟਨਾਵਾਂ ਬਾਰੇ ਝੂਠੀ ਜਾਣਕਾਰੀ ਫੈਲਾਈ ਜਾ ਸਕਦੀ ਹੈ, ਬਿਰਤਾਂਤ ਨੂੰ ਮੋੜ ਕੇ ਰੂਸ ਪੱਖੀ ਵਿਆਖਿਆ ਦਾ ਪੱਖ ਪੂਰਿਆ ਜਾ ਸਕਦਾ ਹੈ।
ਇੱਕਸਾਰ ਧਾਗਾ ਇੱਕ ਖਾਸ ਭੂ-ਰਾਜਨੀਤਿਕ ਏਜੰਡੇ ਦੀ ਸੇਵਾ ਕਰਨ ਲਈ ਜਾਣਕਾਰੀ ਦੀ ਹੇਰਾਫੇਰੀ ਹੈ। AI ਦੀ ਵਰਤੋਂ ਇਹਨਾਂ ਬਿਰਤਾਂਤਾਂ ਦੀ ਪਹੁੰਚ ਅਤੇ ਸੰਭਾਵੀ ਪ੍ਰਭਾਵ ਨੂੰ ਵਧਾਉਂਦੀ ਹੈ, ਜਿਸ ਨਾਲ ਉਹਨਾਂ ਦਾ ਪਤਾ ਲਗਾਉਣਾ ਅਤੇ ਮੁਕਾਬਲਾ ਕਰਨਾ ਵਧੇਰੇ ਮੁਸ਼ਕਲ ਹੋ ਜਾਂਦਾ ਹੈ।
ਲੰਬੇ ਸਮੇਂ ਦੇ ਪ੍ਰਭਾਵ
ਇਸ AI-ਸੰਚਾਲਿਤ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਪ੍ਰਭਾਵ ਦੂਰਗਾਮੀ ਹਨ। ਜਾਣਕਾਰੀ ਦੇ ਸਰੋਤਾਂ ਵਿੱਚ ਭਰੋਸੇ ਦਾ ਖਾਤਮਾ, ਜਨਤਕ ਰਾਏ ਦੀ ਹੇਰਾਫੇਰੀ ਦੀ ਸੰਭਾਵਨਾ, ਅਤੇ ਜਮਹੂਰੀ ਪ੍ਰਕਿਰਿਆਵਾਂ ਦਾ ਅਸਥਿਰ ਹੋਣਾ ਸਭ ਗੰਭੀਰ ਚਿੰਤਾਵਾਂ ਹਨ। ਜਿਵੇਂ ਕਿ AI ਸਿਸਟਮ ਸਾਡੇ ਰੋਜ਼ਾਨਾ ਜੀਵਨ ਵਿੱਚ ਵੱਧ ਤੋਂ ਵੱਧ ਏਕੀਕ੍ਰਿਤ ਹੁੰਦੇ ਜਾਂਦੇ ਹਨ, ਸੱਚ ਅਤੇ ਝੂਠ ਵਿੱਚ ਫਰਕ ਕਰਨ ਦੀ ਯੋਗਤਾ ਹੋਰ ਵੀ ਮਹੱਤਵਪੂਰਨ ਹੁੰਦੀ ਜਾਂਦੀ ਹੈ।
‘LLM ਗਰੂਮਿੰਗ’ ਤਕਨੀਕ ਸੂਚਨਾ ਯੁੱਧ ਦੇ ਖੇਤਰ ਵਿੱਚ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਵਾਧੇ ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ। ਇਹ AI ਸਿਸਟਮਾਂ ਦੀ ਹੇਰਾਫੇਰੀ ਪ੍ਰਤੀ ਕਮਜ਼ੋਰੀ ਅਤੇ ਇਸ ਉੱਭਰ ਰਹੇ ਖਤਰੇ ਦੇ ਵਿਰੁੱਧ ਮਜ਼ਬੂਤ ਰੱਖਿਆ ਦੀ ਲੋੜ ਨੂੰ ਉਜਾਗਰ ਕਰਦਾ ਹੈ। ਚੁਣੌਤੀ ਨਾ ਸਿਰਫ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਸਰੋਤਾਂ ਦੀ ਪਛਾਣ ਕਰਨ ਅਤੇ ਉਹਨਾਂ ਨੂੰ ਬਲੌਕ ਕਰਨ ਵਿੱਚ ਹੈ, ਬਲਕਿ AI ਮਾਡਲਾਂ ਨੂੰ ਪ੍ਰਭਾਵ ਦੇ ਇਹਨਾਂ ਸੂਖਮ ਪਰ ਵਿਆਪਕ ਰੂਪਾਂ ਦੇ ਵਿਰੁੱਧ ਟੀਕਾਕਰਨ ਕਰਨ ਲਈ ਰਣਨੀਤੀਆਂ ਵਿਕਸਤ ਕਰਨ ਵਿੱਚ ਵੀ ਹੈ। ਇਸ ਲਈ ਇੱਕ ਬਹੁ-ਪੱਖੀ ਪਹੁੰਚ ਦੀ ਲੋੜ ਹੈ, ਜਿਸ ਵਿੱਚ ਸ਼ਾਮਲ ਹਨ:
- ਵਧੀ ਹੋਈ AI ਸਾਖਰਤਾ: ਜਨਤਾ ਨੂੰ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਗਲਤ ਜਾਣਕਾਰੀ ਦੀ ਸੰਭਾਵਨਾ ਬਾਰੇ ਜਾਗਰੂਕ ਕਰਨਾ ਅਤੇ ਆਲੋਚਨਾਤਮਕ ਸੋਚ ਦੇ ਹੁਨਰ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨਾ।
- ਸੁਧਰੇ ਹੋਏ AI ਖੋਜ ਸੰਦ: AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਸਮੱਗਰੀ ਅਤੇ ਗਲਤ ਜਾਣਕਾਰੀ ਦੀ ਪਛਾਣ ਕਰਨ ਅਤੇ ਫਲੈਗ ਕਰਨ ਲਈ ਵਧੇਰੇ ਆਧੁਨਿਕ ਤਰੀਕੇ ਵਿਕਸਤ ਕਰਨਾ।
- ਮਜ਼ਬੂਤ AI ਸਿਖਲਾਈ ਡੇਟਾ: AI ਸਿਖਲਾਈ ਡੇਟਾ ਦੀ ਅਖੰਡਤਾ ਅਤੇ ਵਿਭਿੰਨਤਾ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਉਪਾਅ ਲਾਗੂ ਕਰਨਾ, ਇਸ ਨੂੰ ਹੇਰਾਫੇਰੀ ਪ੍ਰਤੀ ਵਧੇਰੇ ਰੋਧਕ ਬਣਾਉਣਾ।
- ਅੰਤਰਰਾਸ਼ਟਰੀ ਸਹਿਯੋਗ: ਇਸ ਗਲੋਬਲ ਚੁਣੌਤੀ ਨੂੰ ਹੱਲ ਕਰਨ ਲਈ ਸਰਕਾਰਾਂ, ਤਕਨੀਕੀ ਕੰਪਨੀਆਂ ਅਤੇ ਖੋਜਕਰਤਾਵਾਂ ਵਿਚਕਾਰ ਸਹਿਯੋਗ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨਾ।
- ਵਧੀ ਹੋਈ ਪਾਰਦਰਸ਼ਤਾ: AI ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਵਰਤੇ ਗਏ ਸਿਖਲਾਈ ਡੇਟਾ ਅਤੇ ਉਹਨਾਂ ਦੇ ਮਾਡਲਾਂ ਦੇ ਅੰਦਰ ਮੌਜੂਦ ਸੰਭਾਵੀ ਪੱਖਪਾਤਾਂ ਬਾਰੇ ਪਾਰਦਰਸ਼ੀ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ।
- ਐਲਗੋਰਿਦਮਿਕ ਜਵਾਬਦੇਹੀ: AI ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਉਹਨਾਂ ਦੇ ਸਿਸਟਮਾਂ ਦੇ ਆਉਟਪੁੱਟ ਲਈ ਜਵਾਬਦੇਹ ਠਹਿਰਾਉਣਾ, ਖਾਸ ਤੌਰ ‘ਤੇ ਜਦੋਂ ਉਹ ਆਉਟਪੁੱਟ ਗਲਤ ਜਾਣਕਾਰੀ ਫੈਲਾਉਣ ਲਈ ਵਰਤੇ ਜਾਂਦੇ ਹਨ।
AI-ਸੰਚਾਲਿਤ ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਵਿਰੁੱਧ ਲੜਾਈ ਇੱਕ ਗੁੰਝਲਦਾਰ ਅਤੇ ਵਿਕਸਤ ਹੋ ਰਹੀ ਲੜਾਈ ਹੈ। ਇਸ ਲਈ ਜਾਣਕਾਰੀ ਦੀ ਅਖੰਡਤਾ ਦੀ ਰੱਖਿਆ ਕਰਨ ਅਤੇ ਸੂਚਿਤ ਫੈਸਲੇ ਲੈਣ ਦੀਆਂ ਨੀਹਾਂ ਦੀ ਰੱਖਿਆ ਕਰਨ ਲਈ ਵਿਅਕਤੀਆਂ, ਸੰਸਥਾਵਾਂ ਅਤੇ ਸਰਕਾਰਾਂ ਦੇ ਇੱਕ ਸੰਯੁਕਤ ਯਤਨ ਦੀ ਲੋੜ ਹੈ। ਪ੍ਰਵਦਾ ਨੈੱਟਵਰਕ ਦੀਆਂ ਗਤੀਵਿਧੀਆਂ ਸ਼ਾਮਲ ਦਾਅ ਅਤੇ ਇਸ ਵਧ ਰਹੇ ਖਤਰੇ ਨੂੰ ਹੱਲ ਕਰਨ ਦੀ ਜ਼ਰੂਰਤ ਦੀ ਇੱਕ ਸਪੱਸ਼ਟ ਯਾਦ ਦਿਵਾਉਂਦੀਆਂ ਹਨ। ਸੂਚਿਤ ਜਨਤਕ ਭਾਸ਼ਣ ਦਾ ਭਵਿੱਖ, ਅਤੇ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਜਮਹੂਰੀ ਸਮਾਜਾਂ ਦੀ ਸਥਿਰਤਾ, ਇਸ ਨਵੀਂ ਕਿਸਮ ਦੀ ਹੇਰਾਫੇਰੀ ਦਾ ਸਫਲਤਾਪੂਰਵਕ ਮੁਕਾਬਲਾ ਕਰਨ ਦੀ ਸਾਡੀ ਯੋਗਤਾ ‘ਤੇ ਨਿਰਭਰ ਕਰ ਸਕਦੀ ਹੈ। ਚੁਣੌਤੀ ਸਿਰਫ ਤਕਨੀਕੀ ਨਹੀਂ ਹੈ; ਇਹ ਸਮਾਜਿਕ ਵੀ ਹੈ, ਜਿਸ ਲਈ ਡਿਜੀਟਲ ਯੁੱਗ ਵਿੱਚ ਸੱਚਾਈ, ਸ਼ੁੱਧਤਾ ਅਤੇ ਆਲੋਚਨਾਤਮਕ ਸੋਚ ਪ੍ਰਤੀ ਇੱਕ ਨਵੀਂ ਵਚਨਬੱਧਤਾ ਦੀ ਲੋੜ ਹੈ।