AI ਤੱਥ ਜਾਂਚ 'ਚ ਗਲਤ ਜਾਣਕਾਰੀ

ਇੰਡੀਆ ‘ਚ AI ਤੱਥ ਜਾਂਚ ‘ਚ ਗਲਤ ਜਾਣਕਾਰੀ: ਚੈਟਬੋਟ ਦੀ ਗੈਰ-ਭਰੋਸੇਯੋਗਤਾ

ਇੰਡੀਆ ਤੇ ਪਾਕਿਸਤਾਨ ਦੇ ਥੋੜ੍ਹੇ ਸਮੇਂ ਦੇ ਝਗੜੇ ਦੌਰਾਨ, ਗਲਤ ਜਾਣਕਾਰੀ ਬਹੁਤ ਤੇਜ਼ੀ ਨਾਲ ਫੈਲੀ, ਜਿਸ ਕਰਕੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਯੂਜ਼ਰ ਉਸਦੀ ਤਸਦੀਕ ਲਈ AI ਚੈਟਬੋਟਾਂ ‘ਤੇ ਨਿਰਭਰ ਹੋਣ ਲੱਗੇ। ਹਾਲਾਂਕਿ, ਇਨ੍ਹਾਂ ਚੈਟਬੋਟਾਂ ਨੇ ਹੋਰ ਵੀ ਜ਼ਿਆਦਾ ਝੂਠੀਆਂ ਖ਼ਬਰਾਂ ਦਿੱਤੀਆਂ, ਜਿਸ ਨਾਲ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਕਰਨ ਵਾਲੇ ਟੂਲ ਵਜੋਂ ਉਨ੍ਹਾਂ ਦੀ ਗੈਰ-ਭਰੋਸੇਯੋਗਤਾ ਸਾਹਮਣੇ ਆਈ। ਜਿਵੇਂ ਕਿ ਵੱਡੇ ਟੈਕਨਾਲੋਜੀ ਪਲੇਟਫਾਰਮ ਹੱਥੀਂ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਕਰਨ ਵਾਲਿਆਂ ਦੀ ਗਿਣਤੀ ਨੂੰ ਘਟਾਉਂਦੇ ਜਾ ਰਹੇ ਹਨ, ਯੂਜ਼ਰ ਭਰੋਸੇਯੋਗ ਜਾਣਕਾਰੀ ਦੀ ਮੰਗ ਕਰਦੇ ਹੋਏ AI ਦੁਆਰਾ ਚਲਾਏ ਜਾਣ ਵਾਲੇ ਚੈਟਬੋਟਾਂ, ਜਿਵੇਂ ਕਿ xAI ਦੇ Grok, OpenAI ਦੇ ChatGPT ਅਤੇ Google ਦੇ Gemini ‘ਤੇ ਜ਼ਿਆਦਾ ਨਿਰਭਰ ਕਰ ਰਹੇ ਹਨ।

AI ਚੈਟਬੋਟ ਤੱਥ ਜਾਂਚ ਦਾ ਉਭਾਰ

ਐਲੋਨ ਮਸਕ ਦੇ X ਪਲੇਟਫਾਰਮ (ਪਹਿਲਾਂ ਟਵਿੱਟਰ) ‘ਤੇ, "@Grok, ਕੀ ਇਹ ਸੱਚ ਹੈ?" ਯੂਜ਼ਰਾਂ ਵਿੱਚ ਸਵਾਲ ਪੁੱਛਣ ਦਾ ਆਮ ਤਰੀਕਾ ਬਣ ਗਿਆ ਹੈ। Grok, X ਪਲੇਟਫਾਰਮ ਵਿੱਚ ਬਣਾਇਆ ਗਿਆ ਇੱਕ AI ਸਹਾਇਕ ਹੈ, ਜੋ ਸੋਸ਼ਲ ਮੀਡੀਆ ‘ਤੇ ਤੁਰੰਤ ਖੰਡਨ ਕਰਨ ਦੀ ਮੰਗ ਕਰਨ ਵਾਲੇ ਯੂਜ਼ਰਾਂ ਦੇ ਰੁਝਾਨ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ। ਹਾਲਾਂਕਿ, ਇਨ੍ਹਾਂ AI ਚੈਟਬੋਟਾਂ ਦੇ ਜਵਾਬ ਅਕਸਰ ਗਲਤ ਜਾਣਕਾਰੀ ਨਾਲ ਭਰੇ ਹੁੰਦੇ ਹਨ।

Grok ‘ਤੇ ਹਾਲ ਹੀ ਵਿੱਚ ਬਹੁਤ ਧਿਆਨ ਦਿੱਤਾ ਗਿਆ, ਕਿਉਂਕਿ ਇਸ ਨੇ ਗਲਤ ਧਾਰਨਾਵਾਂ ਅਤੇ ਦੂਜਿਆਂ ਨੂੰ ਨੀਵਾਂ ਦਿਖਾਉਣ ਵਾਲੀ ਵਿਚਾਰਧਾਰਾ "ਚਿੱਟੇ ਲੋਕਾਂ ਦਾ ਖਾਤਮਾ" ਨੂੰ ਬੇਲੋੜੇ ਸਵਾਲਾਂ ਵਿੱਚ ਸ਼ਾਮਲ ਕੀਤਾ। Grok ਨੇ ਗਲਤੀ ਨਾਲ ਸੁਡਾਨ ਦੇ ਖਰਟੂਮ ਹਵਾਈ ਅੱਡੇ ਦੇ ਪੁਰਾਣੇ ਵੀਡੀਓ ਨੂੰ ਭਾਰਤ-ਪਾਕਿਸਤਾਨ ਸੰਘਰਸ਼ ਦੌਰਾਨ ਇੱਕ ਮਿਜ਼ਾਈਲ ਹਮਲੇ ਵਿੱਚ ਪਾਕਿਸਤਾਨ ਦੇ ਨੂਰ ਖਾਨ ਏਅਰ ਫੋਰਸ ਬੇਸ ਵਜੋਂ ਪਛਾਣਿਆ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਨੇਪਾਲ ਵਿੱਚ ਇੱਕ ਸੜਦੀ ਹੋਈ ਇਮਾਰਤ ਦੀ ਗਲਤ ਪਛਾਣ ਕੀਤੀ ਗਈ, ਅਤੇ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ ਇਹ "ਸ਼ਾਇਦ" ਪਾਕਿਸਤਾਨ ਦੁਆਰਾ ਭਾਰਤ ‘ਤੇ ਕੀਤੇ ਗਏ ਹਮਲੇ ਦਾ ਜਵਾਬ ਹੈ।

AI ਤੱਥ ਜਾਂਚ ਦੀਆਂ ਸੀਮਾਵਾਂ

ਜਾਣਕਾਰੀ ਦੀ ਜਾਂਚ ਕਰਨ ਵਾਲੀ ਸੰਸਥਾ NewsGuard ਦੀ ਖੋਜਕਾਰ ਮੈਕੇਂਜ਼ੀ ਸਾਦੇਗੀ ਨੇ ਫਰਾਂਸ ਦੀ ਖ਼ਬਰ ਏਜੰਸੀ ਨੂੰ ਦੱਸਿਆ: "ਕਿਉਂਕਿ X ਅਤੇ ਹੋਰ ਵੱਡੀਆਂ ਤਕਨਾਲੋਜੀ ਕੰਪਨੀਆਂ ਨੇ ਹੱਥੀਂ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਕਰਨ ਵਾਲਿਆਂ ‘ਤੇ ਨਿਵੇਸ਼ ਘਟਾ ਦਿੱਤਾ ਹੈ, ਇਸ ਲਈ ਲੋਕ ਇੱਕ ਤੱਥ ਜਾਂਚਕਰਤਾ ਵਜੋਂ Grok ‘ਤੇ ਜ਼ਿਆਦਾ ਨਿਰਭਰ ਕਰ ਰਹੇ ਹਨ।" ਉਸ ਨੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ: "ਸਾਡੀ ਖੋਜ ਨੇ ਵਾਰ-ਵਾਰ ਇਹ ਪਾਇਆ ਹੈ ਕਿ AI ਚੈਟਬੋਟ ਖ਼ਬਰਾਂ ਅਤੇ ਜਾਣਕਾਰੀ ਦੇ ਭਰੋਸੇਯੋਗ ਸਰੋਤ ਨਹੀਂ ਹਨ, ਖਾਸ ਕਰਕੇ ਤਾਜ਼ੀਆਂ ਖ਼ਬਰਾਂ ਦੇ ਮਾਮਲੇ ਵਿੱਚ।"

NewsGuard ਦੀ ਖੋਜ ਵਿੱਚ ਪਾਇਆ ਗਿਆ ਹੈ ਕਿ Grok ਸਮੇਤ 10 ਪ੍ਰਮੁੱਖ ਚੈਟਬੋਟ ਆਸਾਨੀ ਨਾਲ ਗਲਤ ਜਾਣਕਾਰੀ ਨੂੰ ਦੁਹਰਾ ਸਕਦੇ ਹਨ, ਜਿਸ ਵਿੱਚ ਰੂਸ ਦੇ ਗਲਤ ਪ੍ਰਚਾਰ ਵਾਲੇ ਬਿਰਤਾਂਤ ਅਤੇ ਹਾਲ ਹੀ ਵਿੱਚ ਹੋਈਆਂ ਆਸਟ੍ਰੇਲੀਆਈ ਚੋਣਾਂ ਨਾਲ ਸਬੰਧਤ ਝੂਠੇ ਜਾਂ ਗੁੰਮਰਾਹਕੁੰਨ ਦਾਅਵੇ ਸ਼ਾਮਲ ਹਨ। ਕੋਲੰਬੀਆ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਡਿਜੀਟਲ ਨਿਊਜ਼ ਸੈਂਟਰ Tow Center ਦੁਆਰਾ ਹਾਲ ਹੀ ਵਿੱਚ ਅੱਠ AI ਖੋਜ ਟੂਲਾਂ ‘ਤੇ ਕੀਤੇ ਗਏ ਇੱਕ ਅਧਿਐਨ ਵਿੱਚ ਪਾਇਆ ਗਿਆ ਕਿ ਚੈਟਬੋਟ "ਅਕਸਰ ਉਨ੍ਹਾਂ ਸਵਾਲਾਂ ਦੇ ਜਵਾਬ ਦੇਣ ਤੋਂ ਇਨਕਾਰ ਕਰਨ ਵਿੱਚ ਚੰਗੇ ਨਹੀਂ ਹੁੰਦੇ ਜਿਨ੍ਹਾਂ ਦੇ ਉਹ ਸਹੀ ਢੰਗ ਨਾਲ ਜਵਾਬ ਨਹੀਂ ਦੇ ਸਕਦੇ, ਬਲਕਿ ਗਲਤ ਜਾਂ ਅੰਦਾਜ਼ੇ ਵਾਲੇ ਜਵਾਬ ਦਿੰਦੇ ਹਨ।"

ਉਰੂਗਵੇ ਵਿੱਚ ਫਰਾਂਸ ਦੀ ਖ਼ਬਰ ਏਜੰਸੀ ਦੇ ਤੱਥ ਜਾਂਚਕਰਤਾ ਨੇ ਜਦੋਂ Gemini ਨੂੰ ਇੱਕ AI ਦੁਆਰਾ ਬਣਾਈ ਗਈ ਔਰਤ ਦੀ ਤਸਵੀਰ ਬਾਰੇ ਪੁੱਛਿਆ, ਤਾਂ Gemini ਨੇ ਨਾ ਸਿਰਫ ਤਸਵੀਰ ਦੀ ਅਸਲੀਅਤ ਦੀ ਪੁਸ਼ਟੀ ਕੀਤੀ, ਸਗੋਂ ਔਰਤ ਦੀ ਪਛਾਣ ਅਤੇ ਉਸ ਜਗ੍ਹਾ ਬਾਰੇ ਵੀ ਵੇਰਵੇ ਘੜੇ ਜਿੱਥੇ ਤਸਵੀਰ ਲਈ ਗਈ ਹੋ ਸਕਦੀ ਹੈ।

Grok ਨੇ ਹਾਲ ਹੀ ਵਿੱਚ ਇੱਕ ਵੀਡੀਓ ਨੂੰ "ਅਸਲੀ" ਦੱਸਿਆ, ਜਿਸ ਵਿੱਚ ਐਮਾਜ਼ਾਨ ਨਦੀ ਵਿੱਚ ਇੱਕ ਵੱਡਾ ਅਜਗਰ ਤੈਰ ਰਿਹਾ ਸੀ, ਅਤੇ ਉਸਨੇ ਆਪਣੇ ਝੂਠੇ ਦਾਅਵਿਆਂ ਦਾ ਸਮਰਥਨ ਕਰਨ ਲਈ ਇੱਕ ਭਰੋਸੇਯੋਗ ਵਿਗਿਆਨਕ ਮੁਹਿੰਮ ਦਾ ਹਵਾਲਾ ਵੀ ਦਿੱਤਾ। ਅਸਲ ਵਿੱਚ, ਇਹ ਵੀਡੀਓ AI ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਗਈ ਸੀ, ਅਤੇ ਲਾਤੀਨੀ ਅਮਰੀਕਾ ਵਿੱਚ ਫਰਾਂਸ ਦੀ ਖ਼ਬਰ ਏਜੰਸੀ ਦੇ ਤੱਥ ਜਾਂਚਕਰਤਾ ਨੇ ਦੱਸਿਆ ਕਿ ਬਹੁਤ ਸਾਰੇ ਯੂਜ਼ਰਾਂ ਨੇ ਇਸ ਵੀਡੀਓ ਦੇ ਅਸਲੀ ਹੋਣ ਦੇ ਸਬੂਤ ਵਜੋਂ Grok ਦੇ ਮੁਲਾਂਕਣ ਦਾ ਹਵਾਲਾ ਦਿੱਤਾ।

AI ਤੱਥ ਜਾਂਚ ਬਾਰੇ ਚਿੰਤਾਵਾਂ

ਇਨ੍ਹਾਂ ਖੋਜਾਂ ਨੇ ਲੋਕਾਂ ਵਿੱਚ ਚਿੰਤਾਵਾਂ ਪੈਦਾ ਕੀਤੀਆਂ ਹਨ, ਕਿਉਂਕਿ ਸਰਵੇਖਣਾਂ ਤੋਂ ਪਤਾ ਲੱਗਦਾ ਹੈ ਕਿ ਵੱਧ ਤੋਂ ਵੱਧ ਔਨਲਾਈਨ ਯੂਜ਼ਰ ਜਾਣਕਾਰੀ ਇਕੱਠੀ ਕਰਨ ਅਤੇ ਇਸਦੀ ਤਸਦੀਕ ਕਰਨ ਲਈ ਰਵਾਇਤੀ ਖੋਜ ਇੰਜਣਾਂ ਤੋਂ AI ਚੈਟਬੋਟਾਂ ਵੱਲ ਜਾ ਰਹੇ ਹਨ। ਇਸ ਦੇ ਨਾਲ ਹੀ, Meta ਨੇ ਇਸ ਸਾਲ ਦੇ ਸ਼ੁਰੂ ਵਿੱਚ ਅਮਰੀਕਾ ਵਿੱਚ ਆਪਣੇ ਤੀਜੇ ਪੱਖ ਦੀ ਤੱਥ ਜਾਂਚ ਪ੍ਰੋਗਰਾਮ ਨੂੰ ਖਤਮ ਕਰਨ ਦਾ ਐਲਾਨ ਕੀਤਾ, ਅਤੇ ਇਸਦੀ ਬਜਾਏ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਦਾ ਕੰਮ ਆਮ ਯੂਜ਼ਰਾਂ ਨੂੰ ਸੌਂਪਣ ਦਾ ਫੈਸਲਾ ਕੀਤਾ। ਇਸ ਵਿੱਚ ਇੱਕ "ਕਮਿਊਨਿਟੀ ਨੋਟਸ" ਨਾਮਕ ਮਾਡਲ ਵਰਤਿਆ ਜਾਵੇਗਾ, ਜਿਸਨੂੰ X ਪਲੇਟਫਾਰਮ ਦੁਆਰਾ ਉਤਸ਼ਾਹਿਤ ਕੀਤਾ ਗਿਆ ਸੀ। ਹਾਲਾਂਕਿ, ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਵਾਰ-ਵਾਰ ਗਲਤ ਜਾਣਕਾਰੀ ਨਾਲ ਲੜਨ ਵਿੱਚ "ਕਮਿਊਨਿਟੀ ਨੋਟਸ" ਦੀ ਪ੍ਰਭਾਵਸ਼ੀਲਤਾ ‘ਤੇ ਸਵਾਲ ਚੁੱਕੇ ਹਨ।

ਲੰਬੇ ਸਮੇਂ ਤੋਂ, ਹੱਥੀਂ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਇੱਕ ਵੰਡਪਾਊ ਰਾਜਨੀਤਿਕ ਮਾਹੌਲ ਵਿੱਚ ਇੱਕ ਵੱਡਾ ਮੁੱਦਾ ਰਿਹਾ ਹੈ, ਖਾਸ ਕਰਕੇ ਅਮਰੀਕਾ ਵਿੱਚ। ਕੰਜ਼ਰਵੇਟਿਵ ਲੋਕਾਂ ਦਾ ਮੰਨਣਾ ਹੈ ਕਿ ਇਹ ਬੋਲਣ ਦੀ ਆਜ਼ਾਦੀ ਨੂੰ ਦਬਾਉਂਦਾ ਹੈ ਅਤੇ ਸੱਜੇ ਪੱਖੀ ਵਿਚਾਰਾਂ ‘ਤੇ ਰੋਕ ਲਗਾਉਂਦਾ ਹੈ, ਪਰ ਪੇਸ਼ੇਵਰ ਤੱਥ ਜਾਂਚਕਰਤਾ ਇਸ ਦਾਅਵੇ ਦਾ ਜ਼ੋਰਦਾਰ ਵਿਰੋਧ ਕਰਦੇ ਹਨ।

ਫਰਾਂਸ ਦੀ ਖ਼ਬਰ ਏਜੰਸੀ ਵਰਤਮਾਨ ਵਿੱਚ ਏਸ਼ੀਆ, ਲਾਤੀਨੀ ਅਮਰੀਕਾ ਅਤੇ ਯੂਰਪੀਅਨ ਯੂਨੀਅਨ ਸਮੇਤ 26 ਭਾਸ਼ਾਵਾਂ ਵਿੱਚ Facebook ਦੇ ਤੱਥ ਜਾਂਚ ਪ੍ਰੋਗਰਾਮ ਨਾਲ ਸਹਿਯੋਗ ਕਰ ਰਹੀ ਹੈ।

AI ਚੈਟਬੋਟਾਂ ਦੀ ਗੁਣਵੱਤਾ ਅਤੇ ਸ਼ੁੱਧਤਾ ਵੱਖ-ਵੱਖ ਹੋ ਸਕਦੀ ਹੈ, ਇਹ ਇਸ ਗੱਲ ‘ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ ਕਿ ਉਨ੍ਹਾਂ ਨੂੰ ਕਿਵੇਂ ਸਿਖਲਾਈ ਦਿੱਤੀ ਗਈ ਹੈ ਅਤੇ ਪ੍ਰੋਗਰਾਮ ਕੀਤਾ ਗਿਆ ਹੈ, ਜਿਸ ਨਾਲ ਇਹ ਚਿੰਤਾ ਪੈਦਾ ਹੁੰਦੀ ਹੈ ਕਿ ਉਨ੍ਹਾਂ ਦੇ ਨਤੀਜੇ ਰਾਜਨੀਤਿਕ ਤੌਰ ‘ਤੇ ਪ੍ਰਭਾਵਿਤ ਜਾਂ ਨਿਯੰਤਰਿਤ ਹੋ ਸਕਦੇ ਹਨ।

ਮਸਕ ਦੀ xAI ਨੇ ਹਾਲ ਹੀ ਵਿੱਚ ਦੱਖਣੀ ਅਫਰੀਕਾ ਵਿੱਚ "ਚਿੱਟੇ ਲੋਕਾਂ ਦਾ ਖਾਤਮਾ" ਦੇ ਦਾਅਵੇ ਵਾਲੇ ਬੇਲੋੜੇ ਪੋਸਟਾਂ ਨੂੰ ਬਣਾਉਣ ਲਈ Grok ਨੂੰ "ਗੈਰ-ਅਧਿਕਾਰਤ ਸੋਧਾਂ" ਦਾ ਜ਼ਿੰਮੇਵਾਰ ਠਹਿਰਾਇਆ। ਜਦੋਂ AI ਮਾਹਰ ਡੇਵਿਡ ਕੈਸਵੈੱਲ ਨੇ Grok ਨੂੰ ਪੁੱਛਿਆ ਕਿ ਕਿਸਨੇ ਉਸਦੇ ਸਿਸਟਮ ਪ੍ਰੋਂਪਟ ਵਿੱਚ ਸੋਧ ਕੀਤੀ ਹੋ ਸਕਦੀ ਹੈ, ਤਾਂ ਚੈਟਬੋਟ ਨੇ ਮਸਕ ਨੂੰ "ਸਭ ਤੋਂ ਵੱਧ ਸੰਭਾਵਿਤ" ਦੋਸ਼ੀ ਦੱਸਿਆ।

ਮਸਕ ਦੱਖਣੀ ਅਫ਼ਰੀਕਾ ਵਿੱਚ ਜਨਮੇ ਅਰਬਪਤੀ ਹਨ ਅਤੇ ਅਮਰੀਕੀ ਰਾਸ਼ਟਰਪਤੀ ਡੋਨਾਲਡ ਟਰੰਪ ਦੇ ਸਮਰਥਕ ਹਨ। ਉਨ੍ਹਾਂ ਨੇ ਪਹਿਲਾਂ ਬਿਨ੍ਹਾਂ ਕਿਸੇ ਆਧਾਰ ਤੋਂ ਇਹ ਦਾਅਵਾ ਕੀਤਾ ਸੀ ਕਿ ਦੱਖਣੀ ਅਫ਼ਰੀਕਾ ਦੇ ਨੇਤਾ "ਖੁੱਲ੍ਹੇਆਮ ਚਿੱਟੇ ਲੋਕਾਂ ਦੇ ਖਾਤਮੇ ਨੂੰ ਵਧਾਵਾ ਦੇ ਰਹੇ ਹਨ।"

ਅੰਤਰਰਾਸ਼ਟਰੀ ਤੱਥ ਜਾਂਚ ਨੈੱਟਵਰਕ ਦੀ ਡਾਇਰੈਕਟਰ ਐਂਜੀ ਹੋਲਨ ਨੇ ਫਰਾਂਸ ਦੀ ਖ਼ਬਰ ਏਜੰਸੀ ਨੂੰ ਦੱਸਿਆ: "ਅਸੀਂ ਦੇਖਿਆ ਹੈ ਕਿ AI ਸਹਾਇਕ ਮਨੁੱਖੀ ਕੋਡਰਾਂ ਦੁਆਰਾ ਉਨ੍ਹਾਂ ਦੇ ਨਿਰਦੇਸ਼ਾਂ ਨੂੰ ਵਿਸ਼ੇਸ਼ ਤੌਰ ‘ਤੇ ਬਦਲਣ ਤੋਂ ਬਾਅਦ ਨਤੀਜੇ ਘੜ ਸਕਦੇ ਹਨ ਜਾਂ ਪੱਖਪਾਤੀ ਜਵਾਬ ਦੇ ਸਕਦੇ ਹਨ।" "ਮੈਂ ਖਾਸ ਤੌਰ ‘ਤੇ ਇਸ ਗੱਲ ਤੋਂ ਚਿੰਤਤ ਹਾਂ ਕਿ ਜਦੋਂ Grok ਨੂੰ ਪਹਿਲਾਂ ਤੋਂ ਅਧਿਕਾਰਤ ਜਵਾਬ ਦੇਣ ਦੇ ਨਿਰਦੇਸ਼ ਮਿਲਦੇ ਹਨ, ਤਾਂ ਉਹ ਬਹੁਤ ਹੀ ਸੰਵੇਦਨਸ਼ੀਲ ਮਾਮਲਿਆਂ ਬਾਰੇ ਬੇਨਤੀਆਂ ਨੂੰ ਕਿਵੇਂ ਸੰਭਾਲਦਾ ਹੈ।"

ਜਾਣਕਾਰੀ ਦੇ ਖੇਤਰ ਵਿੱਚ AI ਚੈਟਬੋਟ ਤੋਂ ਖ਼ਤਰਾ

ਜਾਣਕਾਰੀ ਪ੍ਰਦਾਨ ਕਰਨ ਵਿੱਚ AI ਚੈਟਬੋਟਾਂ ਦੀ ਵਧਦੀ ਵਰਤੋਂ ਕਈ ਗੰਭੀਰ ਚਿੰਤਾਵਾਂ ਪੈਦਾ ਕਰਦੀ ਹੈ, ਜਿਸ ਵਿੱਚ ਉਨ੍ਹਾਂ ਦੇ ਗੁੰਮਰਾਹਕੁੰਨ ਅਤੇ ਹੇਰਾਫੇਰੀ ਕਰਨ ਵਾਲੇ ਪ੍ਰਭਾਵ ਸ਼ਾਮਲ ਹਨ। ਹਾਲਾਂਕਿ ਇਹਨਾਂ ਤਕਨੀਕਾਂ ਵਿੱਚ ਜਾਣਕਾਰੀ ਨੂੰ ਤੇਜ਼ੀ ਨਾਲ ਪ੍ਰਾਪਤ ਕਰਨ ਅਤੇ ਖੋਜ ਨੂੰ ਸਰਲ ਬਣਾਉਣ ਦੇ ਫਾਇਦੇ ਹਨ, ਪਰ ਇਹਨਾਂ ਦੀਆਂ ਕੁਦਰਤੀ ਸੀਮਾਵਾਂ ਅਤੇ ਪੱਖਪਾਤ ਗਲਤ ਜਾਣਕਾਰੀ ਜਾਂ ਪ੍ਰਚਾਰ ਨੂੰ ਅਣਜਾਣੇ ਵਿੱਚ ਜਾਂ ਜਾਣਬੁੱਝ ਕੇ ਫੈਲਾ ਸਕਦੇ ਹਨ।

AI ਚੈਟਬੋਟਾਂ ‘ਤੇ ਲਗਾਈਆਂ ਗਈਆਂ ਕੁਦਰਤੀ ਪਾਬੰਦੀਆਂ

AI ਚੈਟਬੋਟ ਟੈਕਸਟ ਡੇਟਾ ਦੀ ਬਹੁਤ ਜ਼ਿਆਦਾ ਮਾਤਰਾ ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰਕੇ ਸਿੱਖਦੇ ਹਨ, ਪਰ ਉਹਨਾਂ ਵਿੱਚ ਮਨੁੱਖੀ ਆਲੋਚਨਾਤਮਕ ਸੋਚ ਦੀ ਯੋਗਤਾ ਦੀ ਘਾਟ ਹੁੰਦੀ ਹੈ। ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਉਹ ਡੇਟਾ ਤੋਂ ਪੈਟਰਨ ਕੱਢ ਸਕਦੇ ਹਨ ਅਤੇ ਜਾਇਜ਼ ਜਵਾਬ ਪੈਦਾ ਕਰ ਸਕਦੇ ਹਨ, ਪਰ ਅੰਡਰਲਾਈਨਿੰਗ ਅਰਥ ਜਾਂ ਸੰਦਰਭ ਨੂੰ ਅਸਲ ਵਿੱਚ ਨਹੀਂ ਸਮਝਦੇ ਹਨ। ਗਿਆਨ ਦੀ ਇਸ ਘਾਟ ਕਾਰਨ ਗਲਤ, ਅਧੂਰੀ ਜਾਂ ਗੁੰਮਰਾਹਕੁੰਨ ਜਾਣਕਾਰੀ ਪੈਦਾ ਹੋ ਸਕਦੀ ਹੈ।

ਇਸ ਤੋਂ ਇਲਾਵਾ, AI ਚੈਟਬੋਟਾਂ ਲਈ ਸਿਖਲਾਈ ਡੇਟਾ ਵਿੱਚ ਪੱਖਪਾਤ ਸ਼ਾਮਲ ਹੋ ਸਕਦਾ ਹੈ, ਜੋ ਜਵਾਬਾਂ ਵਿੱਚ ਦਰਸਾਇਆ ਜਾਂਦਾ ਹੈ। ਉਦਾਹਰਨ ਲਈ, ਜੇਕਰ ਸਿਖਲਾਈ ਡੇਟਾ ਮੁੱਖ ਤੌਰ ‘ਤੇ ਕਿਸੇ ਖਾਸ ਸਰੋਤ ਜਾਂ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਤੋਂ ਹੈ, ਤਾਂ ਚੈਟਬੋਟ ਉਸ ਸਰੋਤ ਜਾਂ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਲਈ ਇੱਕ ਤਰਜੀਹ ਪੇਸ਼ ਕਰ ਸਕਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਪੱਖਪਾਤੀ ਜਾਣਕਾਰੀ ਫੈਲ ਸਕਦੀ ਹੈ।

AI ਚੈਟਬੋਟਾਂ ਤੋਂ ਪੈਦਾ ਹੋਣ ਵਾਲਾ ਖ਼ਤਰਾ

ਜਿਵੇਂ ਕਿ ਵੱਧ ਤੋਂ ਵੱਧ ਲੋਕ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ AI ਚੈਟਬੋਟਾਂ ‘ਤੇ ਭਰੋਸਾ ਕਰਦੇ ਹਨ, ਗਲਤ ਜਾਣਕਾਰੀ ਦੇ ਫੈਲਣ ਦਾ ਖ਼ਤਰਾ ਵੀ ਵਧਦਾ ਹੈ। ਜੇਕਰ ਕੋਈ ਚੈਟਬੋਟ ਗਲਤ ਜਾਂ ਗੁੰਮਰਾਹਕੁੰਨ ਜਾਣਕਾਰੀ ਪੈਦਾ ਕਰਦਾ ਹੈ, ਤਾਂ ਉਪਭੋਗਤਾ ਅਣਜਾਣੇ ਵਿੱਚ ਇਸ ਜਾਣਕਾਰੀ ਨੂੰ ਸਵੀਕਾਰ ਅਤੇ ਫੈਲਾ ਸਕਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਗਲਤ ਵਿਸ਼ਵਾਸਾਂ ਦਾ ਫੈਲਾਅ ਹੋ ਸਕਦਾ ਹੈ।

ਇਸ ਤੋਂ ਇਲਾਵਾ, AI ਚੈਟਬੋਟਾਂ ਦੀ ਵਰਤੋਂ ਖਤਰਨਾਕ ਉਦੇਸ਼ਾਂ ਲਈ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ, ਜਿਵੇਂ ਕਿ ਪ੍ਰਚਾਰ ਫੈਲਾਉਣਾ ਜਾਂ ਜਨਤਕ ਰਾਏ ਵਿੱਚ ਹੇਰਾਫੇਰੀ ਕਰਨਾ। ਸਿਖਲਾਈ ਡੇਟਾ ਨੂੰ ਧਿਆਨ ਨਾਲ ਡਿਜ਼ਾਈਨ ਕਰਕੇ ਜਾਂ ਐਲਗੋਰਿਦਮ ਨੂੰ ਐਡਜਸਟ ਕਰਕੇ, ਖਤਰਨਾਕ ਵਿਅਕਤੀ ਖਾਸ ਕਿਸਮ ਦੇ ਜਵਾਬਾਂ ਨੂੰ ਪੈਦਾ ਕਰਨ ਲਈ ਚੈਟਬੋਟਾਂ ਵਿੱਚ ਚਲਾਕੀ ਕਰ ਸਕਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਉਪਭੋਗਤਾਵਾਂ ਦੇ ਵਿਸ਼ਵਾਸਾਂ ਅਤੇ ਵਿਵਹਾਰ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ।

ਖ਼ਤਰੇ ਨੂੰ ਘਟਾਉਣ ਲਈ ਤਰੀਕੇ

AI ਚੈਟਬੋਟਾਂ ਨਾਲ ਜੁੜੇ ਖਤਰੇ ਨੂੰ ਘਟਾਉਣ ਲਈ, ਕੁਝ ਕਦਮ ਚੁੱਕਣ ਦੀ ਲੋੜ ਹੈ। ਸਭ ਤੋਂ ਪਹਿਲਾਂ, ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ ਕਿ AI ਚੈਟਬੋਟਾਂ ਲਈ ਸਿਖਲਾਈ ਡੇਟਾ ਜਿੰਨਾ ਸੰਭਵ ਹੋ ਸਕੇ ਵਿਆਪਕ ਅਤੇ ਨਿਰਪੱਖ ਹੋਵੇ। ਪੱਖਪਾਤ ਦੇ ਪ੍ਰਭਾਵ ਨੂੰ ਘਟਾਉਣ ਲਈ ਵੱਖ-ਵੱਖ ਸਰੋਤਾਂ ਅਤੇ ਦ੍ਰਿਸ਼ਟੀਕੋਣਾਂ ਤੋਂ ਵੱਖ-ਵੱਖ ਡੇਟਾ ਨਮੂਨੇ ਸ਼ਾਮਲ ਕਰਨੇ ਪੈ ਸਕਦੇ ਹਨ।
ਦੂਜਾ, AI ਚੈਟਬੋਟਾਂ ਨੂੰ ਕਿਸੇ ਵੀ ਗਲਤ ਜਾਂ ਪੱਖਪਾਤੀ ਝੁਕਾਅ ਦੀ ਪਛਾਣ ਕਰਨ ਅਤੇ ਠੀਕ ਕਰਨ ਲਈ ਸਖ਼ਤੀ ਨਾਲ ਜਾਂਚ ਅਤੇ ਮੁਲਾਂਕਣ ਕਰਨ ਦੀ ਲੋੜ ਹੈ। ਚੈਟਬੋਟ ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੇ ਗਏ ਜਵਾਬਾਂ ਦੀ ਹੱਥੀਂ ਤਸਦੀਕ ਕਰਨ ਅਤੇ ਇਸਦੀ ਸ਼ੁੱਧਤਾ ਅਤੇ ਨਿਰਪੱਖਤਾ ਦਾ ਮੁਲਾਂਕਣ ਕਰਨ ਲਈ ਵੱਖ-ਵੱਖ ਮਾਪਦੰਡਾਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਲੋੜ ਹੋ ਸਕਦੀ ਹੈ।
ਤੀਜਾ, ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਆਲੋਚਨਾਤਮਕ ਸੋਚ ਰੱਖਣੀ ਚਾਹੀਦੀ ਹੈ ਅਤੇ AI ਚੈਟਬੋਟਾਂ ਦੁਆਰਾ ਪ੍ਰਦਾਨ ਕੀਤੀ ਗਈ ਜਾਣਕਾਰੀ ‘ਤੇ ਅੰਨ੍ਹੇਵਾਹ ਵਿਸ਼ਵਾਸ ਨਹੀਂ ਕਰਨਾ ਚਾਹੀਦਾ। ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਹਮੇਸ਼ਾ ਵੱਖ-ਵੱਖ ਸਰੋਤਾਂ ਤੋਂ ਜਾਣਕਾਰੀ ਦੀ ਤੁਲਨਾ ਕਰਨੀ ਚਾਹੀਦੀ ਹੈ ਅਤੇ ਚੈਟਬੋਟ ਵਿੱਚ ਮੌਜੂਦ ਪੱਖਪਾਤ ਬਾਰੇ ਸੁਚੇਤ ਰਹਿਣਾ ਚਾਹੀਦਾ ਹੈ।

ਤਕਨੀਕੀ ਪਲੇਟਫਾਰਮਾਂ ਅਤੇ ਕਮਿਊਨਿਟੀਆਂ ਦੀ ਭੂਮਿਕਾ

ਤਕਨੀਕੀ ਪਲੇਟਫਾਰਮਾਂ ਅਤੇ ਕਮਿਊਨਿਟੀਆਂ AI ਚੈਟਬੋਟਾਂ ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਗਈ ਸਮੱਗਰੀ ਨੂੰ ਨਿਯਮਤ ਕਰਨ ਅਤੇ ਉਸਦੀ ਨਿਗਰਾਨੀ ਕਰਨ ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਭੂਮਿਕਾ ਨਿਭਾਉਂਦੀਆਂ ਹਨ। ਪਲੇਟਫਾਰਮ ਗਲਤ ਜਾਣਕਾਰੀ ਜਾਂ ਪ੍ਰਚਾਰ ਦੀ ਪਛਾਣ ਕਰਨ ਅਤੇ ਹਟਾਉਣ ਲਈ ਰਣਨੀਤੀਆਂ ਲਾਗੂ ਕਰ ਸਕਦੇ ਹਨ, ਅਤੇ ਉਹ ਚੈਟਬੋਟ ਦੁਆਰਾ ਤਿਆਰ ਜਵਾਬਾਂ ਦੀ ਸ਼ੁੱਧਤਾ ਦੀ ਤਸਦੀਕ ਕਰਨ ਲਈ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਕਰਨ ਵਾਲੀਆਂ ਸੰਸਥਾਵਾਂ ਨਾਲ ਸਹਿਯੋਗ ਕਰ ਸਕਦੇ ਹਨ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਕਮਿਊਨਿਟੀਆਂ AI ਚੈਟਬੋਟਾਂ ਦੀਆਂ ਸੀਮਾਵਾਂ ਅਤੇ ਪੱਖਪਾਤਾਂ ਬਾਰੇ ਚਰਚਾ ਕਰਕੇ ਉਪਭੋਗਤਾ ਜਾਗਰੂਕਤਾ ਨੂੰ ਵਧਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰ ਸਕਦੀਆਂ ਹਨ, ਅਤੇ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਆਲੋਚਨਾਤਮਕ ਸੋਚ ਰੱਖਣ ਲਈ ਉਤਸ਼ਾਹਿਤ ਕਰ ਸਕਦੀਆਂ ਹਨ।

ਸਿੱਟਾ

AI ਚੈਟਬੋਟ ਇੱਕ ਉਪਯੋਗੀ ਟੂਲ ਹਨ, ਪਰ ਉਹਨਾਂ ਵਿੱਚ ਕੁਦਰਤੀ ਸੀਮਾਵਾਂ ਅਤੇ ਖ਼ਤਰੇ ਵੀ ਹਨ। ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਕਿ ਇਹਨਾਂ ਤਕਨੀਕਾਂ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਨਾਲ ਵਰਤੋਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਅਤੇ ਗਲਤ ਜਾਣਕਾਰੀ ਅਤੇ ਹੇਰਾਫੇਰੀ ਦੇ ਫੈਲਣ ਨੂੰ ਘਟਾਇਆ ਜਾਂਦਾ ਹੈ, ਡਿਵੈਲਪਰਾਂ, ਰੈਗੂਲੇਟਰਾਂ ਅਤੇ ਉਪਭੋਗਤਾਵਾਂ ਸਾਰਿਆਂ ਨੂੰ ਸੁਚੇਤ ਰਹਿਣ ਦੀ ਲੋੜ ਹੈ। ਲੋੜੀਂਦੇ ਕਦਮ ਚੁੱਕ ਕੇ, ਅਸੀਂ AI ਚੈਟਬੋਟਾਂ ਦੇ ਸੰਭਾਵੀ ਨੁਕਸਾਨ ਨੂੰ ਘੱਟ ਕਰਦੇ ਹੋਏ ਇਸਦੇ ਫਾਇਦੇ ਵੱਧ ਤੋਂ ਵੱਧ ਕਰ ਸਕਦੇ ਹਾਂ।