ਡੀਪਸੀਕ ਜਾਂਚ ਅਧੀਨ: ਗੇਮਿਨੀ ਡਾਟਾ ਵਰਤੋਂ ਦੇ ਇਲਜ਼ਾਮ

AI ਜਗਤ ਵਿੱਚ ਵਿਵਾਦ ਛਿੜ ਗਿਆ ਹੈ ਕਿਉਂਕਿ ਇੱਕ ਪ੍ਰਮੁੱਖ AI ਮਾਡਲ ਡਿਵੈਲਪਰ, ਡੀਪਸੀਕ (DeepSeek), ਆਪਣੇ ਨਵੀਨਤਮ ਏਆਈ ਮਾਡਲ (AI model) ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਮੁਕਾਬਲੇਬਾਜ਼ ਦੇ ਡੇਟਾ (competitor data) ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੇ ਨਵੇਂ ਦੋਸ਼ਾਂ ਦਾ ਸਾਹਮਣਾ ਕਰ ਰਿਹਾ ਹੈ। ਇਸ ਵਾਰ, ਗੂਗਲ ਦੇ ਗੇਮਿਨੀ (Gemini) ‘ਤੇ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕੀਤਾ ਗਿਆ ਹੈ, ਦੋਸ਼ਾਂ ਵਿੱਚ ਸੁਝਾਅ ਦਿੱਤਾ ਗਿਆ ਹੈ ਕਿ ਡੀਪਸੀਕ-ਆਰ1-0528 (DeepSeek-R1-0528), ਡੀਪਸੀਕ ਦਾ ਸਭ ਤੋਂ ਤਾਜ਼ਾ ਏਆਈ ਮਾਡਲ, ਗੇਮਿਨੀ ਦੇ ਮਾਡਲ ਦੇ ਡੈਰੀਵੇਟਿਵ (derivative) ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਗਈ ਹੋ ਸਕਦੀ ਹੈ।

ਇਹ ਦੋਸ਼ ਸੈਮ ਪੇਚ (Sam Paech) ਦੁਆਰਾ ਲਗਾਏ ਗਏ ਹਨ, ਜੋ ਕਿ ਇੱਕ ਏਆਈ ਵਿਸ਼ਲੇਸ਼ਕ (AI analyst) ਹੈ, ਜਿਸਨੇ ਆਧੁਨਿਕ ਬਾਇਓਇਨਫਾਰਮੈਟਿਕਸ ਟੂਲਸ (bioinformatics tools) ਦੀ ਵਰਤੋਂ ਕਰਦਿਆਂ ਡੀਪਸੀਕ ਦੀ ਨਕਲੀ ਬੁੱਧੀ ਸੇਵਾ ਦੀ ਬਾਰੀਕੀ ਨਾਲ ਜਾਂਚ ਕੀਤੀ ਹੈ। ਪੇਚ ਦੇ ਵਿਸ਼ਲੇਸ਼ਣ ਨੇ ਉਸਨੂੰ ਇਹ ਸਿੱਟਾ ਕੱਢਣ ਲਈ ਅਗਵਾਈ ਕੀਤੀ ਹੈ ਕਿ ਡੀਪਸੀਕ ਦੇ ਜਵਾਬਾਂ ਅਤੇ ਗੇਮਿਨੀ ਦੇ ਜਵਾਬਾਂ ਵਿਚਕਾਰ ਧਿਆਨ ਦੇਣ ਯੋਗ ਸਮਾਨਤਾਵਾਂ ਹਨ, ਜੋ ਦੋਵਾਂ ਵਿਚਕਾਰ ਇੱਕ ਸੰਭਾਵੀ ਸਬੰਧ ਦਾ ਸੁਝਾਅ ਦਿੰਦੀਆਂ ਹਨ।

ਏਆਈ ਜਾਸੂਸੀ ਕਾਰਵਾਈ: ਸੰਭਾਵੀ ਗੇਮਿਨੀ ਪ੍ਰਭਾਵ ਦਾ ਪਰਦਾਫਾਸ਼

ਪੇਚ ਦੀ ਜਾਂਚ ਸਿਰਫ ਏਆਈ ਦੇ ਵਿਵਹਾਰ ਨੂੰ ਵੇਖਣ ‘ਤੇ ਨਹੀਂ ਰੁਕੀ। ਉਸਨੇ ਹੱਗਿੰਗਫੇਸ ਡਿਵੈਲਪਰ ਕਮਿਊਨਿਟੀ ਸਾਈਟ (HuggingFace developer community site) ਵਿੱਚ ਵੀ ਡੂੰਘਾਈ ਨਾਲ ਖੋਜ ਕੀਤੀ, ਜੋ ਕਿ ਏਆਈ ਵਿਕਾਸ ਲਈ ਇੱਕ ਪ੍ਰਸਿੱਧ ਓਪਨ-ਸੋਰਸ ਪਲੇਟਫਾਰਮ (open-source platform) ਹੈ, ਅਤੇ ਆਪਣੇ ਗੀਟਹੱਬ ਡਿਵੈਲਪਰ ਕੋਡ ਅਕਾਊਂਟ (GitHub developer code account) ਰਾਹੀਂ ਆਪਣਾ ਵਿਸ਼ਲੇਸ਼ਣ ਚਲਾਇਆ। ਇਸ ਸਖ਼ਤ ਪਹੁੰਚ ਨੇ ਉਸਨੂੰ ਏਆਈ ਮਾਡਲ ਦੇ ਅੰਦਰੂਨੀ ਕੰਮਕਾਜ ਦੀ ਜਾਂਚ ਕਰਨ ਅਤੇ ਸੰਭਾਵੀ ਪੈਟਰਨਾਂ ਜਾਂ ਕੋਡ ਹਿੱਸਿਆਂ ਦੀ ਪਛਾਣ ਕਰਨ ਦੀ ਆਗਿਆ ਦਿੱਤੀ ਜੋ ਗੇਮਿਨੀ ਡੇਟਾ (Gemini data) ਦੀ ਵਰਤੋਂ ਦਾ ਸੰਕੇਤ ਦੇ ਸਕਦੇ ਹਨ।

ਆਪਣੇ ਇੱਕ ਟਵੀਟ ਵਿੱਚ, ਪੇਚ ਨੇ ਆਪਣੇ ਖੋਜਾਂ ਦਾ ਸਾਰ ਦਿੱਤਾ, “ਜੇ ਤੁਸੀਂ ਸੋਚ ਰਹੇ ਹੋ ਕਿ ਡੀਪਸੀਕ ਆਰ1 ਥੋੜਾ ਵੱਖਰਾ ਕਿਉਂ ਲੱਗਦਾ ਹੈ, ਤਾਂ ਮੈਨੂੰ ਲਗਦਾ ਹੈ ਕਿ ਉਹਨਾਂ ਨੇ ਸਿੰਥੈਟਿਕ ਓਪਨਏਆਈ (synthetic OpenAI) ‘ਤੇ ਸਿਖਲਾਈ ਦੇਣ ਦੀ ਬਜਾਏ ਸਿੰਥੈਟਿਕ ਗੇਮਿਨੀ ਆਉਟਪੁੱਟ (synthetic Gemini outputs) ‘ਤੇ ਸਿਖਲਾਈ ਦੇਣੀ ਸ਼ੁਰੂ ਕਰ ਦਿੱਤੀ ਹੈ।” ਇਹ ਬਿਆਨ ਸੁਝਾਅ ਦਿੰਦਾ ਹੈ ਕਿ ਡੀਪਸੀਕ ਨੇ ਓਪਨਏਆਈ ਦੇ ਮਾਡਲਾਂ (OpenAI’s models) ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੇ ਸਿੰਥੈਟਿਕ ਡੇਟਾ (synthetic data) ਦੀ ਵਰਤੋਂ ਕਰਨ ਤੋਂ ਬਾਅਦ ਸਿਖਲਾਈ ਪ੍ਰਕਿਰਿਆ ਦੌਰਾਨ ਗੇਮਿਨੀ ਤੋਂ ਪ੍ਰਾਪਤ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕਰਨ ਲਈ ਤਬਦੀਲੀ ਕੀਤੀ ਹੋ ਸਕਦੀ ਹੈ।

ਅਜਿਹੀ ਤਬਦੀਲੀ ਦੇ ਨਤੀਜੇ ਮਹੱਤਵਪੂਰਨ ਹਨ। ਜੇ ਡੀਪਸੀਕ ਨੇ ਸੱਚਮੁੱਚ ਗੇਮਿਨੀ ਤੋਂ ਪ੍ਰਾਪਤ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਹੈ, ਤਾਂ ਇਹ ਬੌਧਿਕ ਜਾਇਦਾਦ ਅਧਿਕਾਰਾਂ (intellectual property rights), ਨਿਰਪੱਖ ਮੁਕਾਬਲੇ (fair competition), ਅਤੇ ਏਆਈ ਵਿਕਾਸ ਦੇ ਆਲੇ ਦੁਆਲੇ ਦੇ ਨੈਤਿਕ ਵਿਚਾਰਾਂ (ethical considerations) ਬਾਰੇ ਸਵਾਲ ਖੜ੍ਹੇ ਕਰ ਸਕਦਾ ਹੈ।

ਡੀਪਸੀਕ ਦਾ ਜਵਾਬ: ਵਧੀ ਹੋਈ ਸਮਰੱਥਾ ਅਤੇ ਪ੍ਰਦਰਸ਼ਨ

ਮਈ 2025 ਵਿੱਚ, ਡੀਪਸੀਕ ਨੇ ਹੱਗਿੰਗਫੇਸ (HuggingFace) ਦੁਆਰਾ ਆਪਣੇ ਡੀਪਸੀਕ-ਆਰ1 ਮਾਡਲ (DeepSeek-R1 model) ਦਾ ਇੱਕ ਅਪਡੇਟ ਕੀਤਾ ਸੰਸਕਰਣ ਜਾਰੀ ਕੀਤਾ, ਜਿਸਨੂੰ ਡੀਪਸੀਕ-ਆਰ1-0528 (DeepSeek-R1-0528) ਦਾ ਨਾਮ ਦਿੱਤਾ ਗਿਆ। ਕੰਪਨੀ ਦਾ ਦਾਅਵਾ ਹੈ ਕਿ ਇਹ ਅਪਡੇਟ ਕੀਤਾ ਮਾਡਲ ਵਧੀ ਹੋਈ ਇਨਫਰੈਂਸ ਸਮਰੱਥਾਵਾਂ (enhanced inference capabilities) ਦਾ ਮਾਣ ਕਰਦਾ ਹੈ, ਜੋ ਜਾਣਕਾਰੀ ਦੀ ਡੂੰਘੀ ਸਮਝ ਅਤੇ ਪ੍ਰੋਸੈਸਿੰਗ (processing of information) ਦਾ ਸੁਝਾਅ ਦਿੰਦਾ ਹੈ। ਡੀਪਸੀਕ ਇਹ ਵੀ ਦੱਸਦਾ ਹੈ ਕਿ ਅਪਡੇਟ ਕੀਤੇ ਮਾਡਲ ਵਿੱਚ ਸਿਖਲਾਈ ਤੋਂ ਬਾਅਦ ਵਧੇ ਹੋਏ ਕੰਪਿਊਟੇਸ਼ਨਲ ਸਰੋਤਾਂ (computational resources) ਅਤੇ ਐਲਗੋਰਿਦਮਿਕ ਓਪਟੀਮਾਈਜੇਸ਼ਨ ਵਿਧੀਆਂ (algorithmic optimization mechanisms) ਨੂੰ ਸ਼ਾਮਲ ਕੀਤਾ ਗਿਆ ਹੈ।

ਡੀਪਸੀਕ ਦੇ ਅਨੁਸਾਰ, ਇਹਨਾਂ ਸੁਧਾਰਾਂ ਦੇ ਨਤੀਜੇ ਵਜੋਂ ਗਣਿਤ, ਪ੍ਰੋਗਰਾਮਿੰਗ ਅਤੇ ਆਮ ਤਰਕ ਸਮੇਤ ਵੱਖ-ਵੱਖ ਮੁਲਾਂਕਣ ਬੈਂਚਮਾਰਕਾਂ (evaluation benchmarks) ਵਿੱਚ ਸ਼ਾਨਦਾਰ ਪ੍ਰਦਰਸ਼ਨ (outstanding performance) ਹੋਇਆ ਹੈ। ਕੰਪਨੀ ਨੇ ਹੱਗਿੰਗਫੇਸ (HuggingFace) ‘ਤੇ ਦੱਸਿਆ ਕਿ ਮਾਡਲ ਦੀ ਸਮੁੱਚੀ ਕਾਰਗੁਜ਼ਾਰੀ ਹੁਣ ਓ3 ਅਤੇ ਗੇਮਿਨੀ 2.5 ਪ੍ਰੋ (Gemini 2.5 Pro) ਵਰਗੇ ਪ੍ਰਮੁੱਖ ਮਾਡਲਾਂ ਦੇ ਨੇੜੇ ਪਹੁੰਚ ਰਹੀ ਹੈ।

ਜਦੋਂ ਕਿ ਡੀਪਸੀਕ ਆਪਣੇ ਨਵੀਨਤਮ ਮਾਡਲ ਦੀ ਸੁਧਾਰੀ ਗਈ ਕਾਰਗੁਜ਼ਾਰੀ ਅਤੇ ਸਮਰੱਥਾਵਾਂ ਦਾ ਦਾਅਵਾ ਕਰਦਾ ਹੈ, ਤਾਂ ਗੇਮਿਨੀ ਡੇਟਾ (Gemini data) ਦੀ ਵਰਤੋਂ ਦੇ ਦੋਸ਼ ਇਨ੍ਹਾਂ ਤਰੱਕੀਆਂ ‘ਤੇ ਪਰਛਾਵਾਂ ਪਾਉਂਦੇ ਹਨ। ਜੇ ਦੋਸ਼ ਸੱਚੇ ਹਨ, ਤਾਂ ਇਹ ਸਵਾਲ ਖੜ੍ਹੇ ਹੋਣਗੇ ਕਿ ਡੀਪਸੀਕ ਦੀ ਕਾਰਗੁਜ਼ਾਰੀ ਵਿੱਚ ਵਾਧਾ ਕਿੰਨਾ ਕੁ ਉਸਦੀ ਆਪਣੀ ਕਾਢਾਂ ਦੇ ਕਾਰਨ ਹੈ ਬਨਾਮ ਮੁਕਾਬਲੇਬਾਜ਼ ਦੇ ਡੇਟਾ ਦੀ ਵਰਤੋਂ।

ਈਕਿਊ-ਬੈਂਚ ਸਬੂਤ: ਗੂਗਲ ਦੇ ਏਆਈ ਹਥਿਆਰਾਂ ਦੀ ਇੱਕ ਝਲਕ

ਅੱਗ ਵਿੱਚ ਘਿਓ ਪਾਉਂਦੇ ਹੋਏ, ਸੈਮ ਪੇਚ (Sam Paech) ਨੇ ਈਕਿਊ-ਬੈਂਚ (EQ-Bench) ਦਾ ਇੱਕ ਸਕ੍ਰੀਨਸ਼ਾਟ (screenshot) ਪੇਸ਼ ਕੀਤਾ, ਜੋ ਕਿ ਏਆਈ ਮਾਡਲਾਂ (AI models) ਦੀ ਕਾਰਗੁਜ਼ਾਰੀ ਦਾ ਮੁਲਾਂਕਣ ਕਰਨ ਲਈ ਵਰਤਿਆ ਜਾਂਦਾ ਇੱਕ ਪਲੇਟਫਾਰਮ ਹੈ। ਸਕ੍ਰੀਨਸ਼ਾਟ ਵਿੱਚ ਗੇਮਿਨੀ 2.5 ਪ੍ਰੋ (Gemini 2.5 Pro), ਗੇਮਿਨੀ 2.5 ਫਲੈਸ਼ (Gemini 2.5 Flash), ਅਤੇ ਜੇਮਾ 3 (Gemma 3) ਸਮੇਤ ਕਈ ਗੂਗਲ ਡਿਵੈਲਪਮੈਂਟ ਮਾਡਲਾਂ (Google development models) ਦੇ ਮੁਲਾਂਕਣ ਨਤੀਜੇ ਦਿਖਾਏ ਗਏ ਹਨ।

ਈਕਿਊ-ਬੈਂਚ ਪਲੇਟਫਾਰਮ (EQ-Bench platform) ‘ਤੇ ਇਨ੍ਹਾਂ ਗੂਗਲ ਮਾਡਲਾਂ (Google models) ਦੀ ਮੌਜੂਦਗੀ ਸੁਝਾਅ ਦਿੰਦੀ ਹੈ ਕਿ ਉਹ ਸਰਗਰਮੀ ਨਾਲ ਵਿਕਸਤ ਅਤੇ ਟੈਸਟ ਕੀਤੇ ਜਾ ਰਹੇ ਹਨ, ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ ਦੂਜੇ ਏਆਈ ਡਿਵੈਲਪਰਾਂ (AI developers) ਲਈ ਡੇਟਾ ਜਾਂ ਪ੍ਰੇਰਨਾ ਦਾ ਸਰੋਤ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਨ। ਜਦੋਂ ਕਿ ਸਕ੍ਰੀਨਸ਼ਾਟ ਖੁਦ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਇਹ ਸਾਬਤ ਨਹੀਂ ਕਰਦਾ ਹੈ ਕਿ ਡੀਪਸੀਕ ਨੇ ਗੇਮਿਨੀ ਡੇਟਾ (Gemini data) ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਹੈ, ਇਹ ਅਜਿਹੇ ਡੇਟਾ ਦੀ ਉਪਲਬਧਤਾ ਅਤੇ ਦੂਜੀਆਂ ਧਿਰਾਂ ਦੁਆਰਾ ਇਸ ਤੱਕ ਪਹੁੰਚ ਕਰਨ ਅਤੇ ਇਸਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਸੰਭਾਵਨਾ ਨੂੰ ਜ਼ਰੂਰ ਉਜਾਗਰ ਕਰਦਾ ਹੈ।

ਸ਼ੱਕ ਅਤੇ ਪੁਸ਼ਟੀਕਰਨ: ਏਆਈ ਵੰਸ਼ਾਵਲੀ ਦੇ ਧੁੰਦਲੇ ਪਾਣੀ

ਜਦੋਂ ਕਿ ਪੇਚ ਦੇ ਵਿਸ਼ਲੇਸ਼ਣ ਨੇ ਡੀਪਸੀਕ ਦੀਆਂ ਸਿਖਲਾਈ ਵਿਧੀਆਂ (DeepSeek’s training methods) ਬਾਰੇ ਗੰਭੀਰ ਸਵਾਲ ਖੜ੍ਹੇ ਕੀਤੇ ਹਨ, ਇਹ ਨੋਟ ਕਰਨਾ ਮਹੱਤਵਪੂਰਨ ਹੈ ਕਿ ਸਬੂਤ ਨਿਰਣਾਇਕ ਨਹੀਂ ਹਨ। ਜਿਵੇਂ ਕਿ ਟੈਕਕਰੰਚ (TechCrunch) ਦੱਸਦਾ ਹੈ, ਗੇਮਿਨੀ ਦੁਆਰਾ ਸਿਖਲਾਈ ਦੇਣ ਦੇ ਸਬੂਤ ਮਜ਼ਬੂਤ ਨਹੀਂ ਹਨ, ਹਾਲਾਂਕਿ ਕੁਝ ਹੋਰ ਡਿਵੈਲਪਰਾਂ ਨੇ ਵੀ ਡੀਪਸੀਕ ਦੇ ਮਾਡਲ (DeepSeek’s model) ਵਿੱਚ ਗੇਮਿਨੀ ਦੇ ਨਿਸ਼ਾਨ (traces of Gemini) ਲੱਭਣ ਦਾ ਦਾਅਵਾ ਕੀਤਾ ਹੈ।

ਸਬੂਤਾਂ ਦੇ ਆਲੇ ਦੁਆਲੇ ਦੀ ਅਸਪਸ਼ਟਤਾ ਏਆਈ ਮਾਡਲਾਂ (AI models) ਦੀ ਵੰਸ਼ਾਵਲੀ ਦਾ ਪਤਾ ਲਗਾਉਣ ਅਤੇ ਇਹ ਨਿਰਧਾਰਤ ਕਰਨ ਦੀਆਂ ਚੁਣੌਤੀਆਂ ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ ਕਿ ਕੀ ਉਹਨਾਂ ਨੂੰ ਮੁਕਾਬਲੇਬਾਜ਼ ਦੇ ਡੇਟਾ (competitor data) ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਗਈ ਹੈ। ਏਆਈ ਐਲਗੋਰਿਦਮ (AI algorithms) ਦੀ ਗੁੰਝਲਦਾਰ ਪ੍ਰਕਿਰਤੀ ਅਤੇ ਸਿਖਲਾਈ ਲਈ ਵਰਤੇ ਜਾਂਦੇ ਡੇਟਾ ਦੀ ਵਿਸ਼ਾਲ ਮਾਤਰਾ ਕਿਸੇ ਪ੍ਰਭਾਵ ਦੇ ਸਹੀ ਸਰੋਤਾਂ ਦਾ ਪਤਾ ਲਗਾਉਣ ਵਿੱਚ ਮੁਸ਼ਕਲ ਪੈਦਾ ਕਰਦੀ ਹੈ।

ਇੱਕ ਆਵਰਤੀ ਥੀਮ: ਓਪਨਏਆਈ ਨਾਲ ਡੀਪਸੀਕ ਦਾ ਇਤਿਹਾਸ

ਇਹ ਪਹਿਲੀ ਵਾਰ ਨਹੀਂ ਹੈ ਜਦੋਂ ਡੀਪਸੀਕ ਨੇ ਮੁਕਾਬਲੇਬਾਜ਼ ਦੇ ਡੇਟਾ (competitor data) ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੇ ਦੋਸ਼ਾਂ ਦਾ ਸਾਹਮਣਾ ਕੀਤਾ ਹੈ। ਦਸੰਬਰ 2024 ਵਿੱਚ, ਕਈ ਐਪਲੀਕੇਸ਼ਨ ਡਿਵੈਲਪਰਾਂ (application developers) ਨੇ ਦੇਖਿਆ ਕਿ ਡੀਪਸੀਕ ਦਾ ਵੀ3 ਮਾਡਲ (DeepSeek’s V3 model) ਅਕਸਰ ਆਪਣੇ ਆਪ ਨੂੰ ਚੈਟਜੀਪੀਟੀ (ChatGPT) ਵਜੋਂ ਪਛਾਣਦਾ ਸੀ, ਜੋ ਕਿ ਓਪਨਏਆਈ ਦਾ ਪ੍ਰਸਿੱਧ ਚੈਟਬੋਟ (OpenAI’s popular chatbot) ਹੈ। ਇਸ ਨਿਰੀਖਣ ਨੇ ਇਸ ਦੋਸ਼ਾਂ ਨੂੰ ਜਨਮ ਦਿੱਤਾ ਕਿ ਡੀਪਸੀਕ ਨੇ ਆਪਣੇ ਮਾਡਲ ਨੂੰ ਚੈਟਜੀਪੀਟੀ (ChatGPT) ਤੋਂ ਸਕ੍ਰੈਪ ਕੀਤੇ ਡੇਟਾ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਸੀ, ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ ਓਪਨਏਆਈ ਦੀਆਂ ਸੇਵਾ ਦੀਆਂ ਸ਼ਰਤਾਂ (OpenAI’s terms of service) ਦੀ ਉਲੰਘਣਾ ਕੀਤੀ ਗਈ ਸੀ।

ਇਹਨਾਂ ਦੋਸ਼ਾਂ ਦੀ ਆਵਰਤੀ ਪ੍ਰਕਿਰਤੀ ਡੀਪਸੀਕ ਦੀਆਂ ਡੇਟਾ ਸੋਰਸਿੰਗ ਅਭਿਆਸਾਂ (data sourcing practices) ਬਾਰੇ ਚਿੰਤਾਵਾਂ ਪੈਦਾ ਕਰਦੀ ਹੈ। ਜਦੋਂ ਕਿ ਇਹ ਸੰਭਵ ਹੈ ਕਿ ਡੀਪਸੀਕ ਦੇ ਮਾਡਲਾਂ (DeepSeek’s models) ਅਤੇ ਇਸਦੇ ਮੁਕਾਬਲੇਬਾਜ਼ਾਂ ਦੇ ਮਾਡਲਾਂ (competitors) ਵਿਚਕਾਰ ਸਮਾਨਤਾਵਾਂ ਪੂਰੀ ਤਰ੍ਹਾਂ ਇਤਫ਼ਾਕੀ ਹਨ, ਪਰ ਵਾਰ-ਵਾਰ ਲੱਗਣ ਵਾਲੇ ਦੋਸ਼ ਇੱਕ ਵਿਵਹਾਰ ਦੇ ਪੈਟਰਨ (pattern of behavior) ਦਾ ਸੁਝਾਅ ਦਿੰਦੇ ਹਨ ਜਿਸਦੀ ਹੋਰ ਜਾਂਚ ਦੀ ਲੋੜ ਹੈ।

ਏਆਈ ਸਿਖਲਾਈ ਅਭਿਆਸਾਂ ਦੇ ਨੈਤਿਕ ਪ੍ਰਭਾਵ

ਡੀਪਸੀਕ ਦੇ ਖਿਲਾਫ ਦੋਸ਼ ਏਆਈ ਸਿਖਲਾਈ ਅਭਿਆਸਾਂ (AI training practices) ਦੇ ਨੈਤਿਕ ਪ੍ਰਭਾਵਾਂ ਨੂੰ ਉਜਾਗਰ ਕਰਦੇ ਹਨ। ਇੱਕ ਤੇਜ਼ੀ ਨਾਲ ਵਿਕਸਤ ਹੋ ਰਹੇ ਖੇਤਰ ਵਿੱਚ ਜਿੱਥੇ ਨਵੀਨਤਾ ਸਰਵਉੱਚ ਹੈ, ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਬਹੁਤ ਜ਼ਰੂਰੀ ਹੈ ਕਿ ਏਆਈ ਮਾਡਲਾਂ (AI models) ਦਾ ਵਿਕਾਸ ਨਿਰਪੱਖ ਅਤੇ ਨੈਤਿਕ ਤਰੀਕੇ ਨਾਲ ਕੀਤਾ ਜਾਵੇ।

ਬਿਨਾਂ ਆਗਿਆ ਜਾਂ ਸਹੀ ਵਿਸ਼ੇਸ਼ਤਾ ਦੇ ਮੁਕਾਬਲੇਬਾਜ਼ ਡੇਟਾ (competitor data) ਦੀ ਵਰਤੋਂ ਕਰਨਾ ਬੌਧਿਕ ਜਾਇਦਾਦ ਅਧਿਕਾਰਾਂ (intellectual property rights) ਅਤੇ ਨਿਰਪੱਖ ਮੁਕਾਬਲੇ (fair competition) ਬਾਰੇ ਸਵਾਲ ਖੜ੍ਹੇ ਕਰਦਾ ਹੈ। ਇਹ ਏਆਈ ਵਿਕਾਸ ਪ੍ਰਕਿਰਿਆ (AI development process) ਦੀ ਇਕਸਾਰਤਾ ਨੂੰ ਵੀ ਕਮਜ਼ੋਰ ਕਰਦਾ ਹੈ ਅਤੇ ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ ਕਾਨੂੰਨੀ ਚੁਣੌਤੀਆਂ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦਾ ਹੈ।

ਇਸ ਤੋਂ ਇਲਾਵਾ, ਸਿੰਥੈਟਿਕ ਡੇਟਾ (synthetic data) ਦੀ ਵਰਤੋਂ, ਭਾਵੇਂ ਇਹ ਜਨਤਕ ਤੌਰ ‘ਤੇ ਉਪਲਬਧ ਸਰੋਤਾਂ ਤੋਂ ਪ੍ਰਾਪਤ ਕੀਤਾ ਗਿਆ ਹੋਵੇ, ਏਆਈ ਮਾਡਲਾਂ (AI models) ਵਿੱਚ ਪੱਖਪਾਤ (biases) ਅਤੇ ਗਲਤੀਆਂ ਪੈਦਾ ਕਰ ਸਕਦਾ ਹੈ। ਏਆਈ ਡਿਵੈਲਪਰਾਂ (AI developers) ਲਈ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਕਿ ਉਹਨਾਂ ਦੇ ਮਾਡਲ ਨਿਰਪੱਖ, ਸਹੀ ਅਤੇ ਭਰੋਸੇਮੰਦ ਹਨ, ਆਪਣੇ ਸਿਖਲਾਈ ਡੇਟਾ (training data) ਦੀ ਗੁਣਵੱਤਾ ਅਤੇ ਪ੍ਰਤੀਨਿਧਤਾ ਦਾ ਧਿਆਨ ਨਾਲ ਮੁਲਾਂਕਣ ਕਰਨਾ ਬਹੁਤ ਜ਼ਰੂਰੀ ਹੈ।

ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਜਵਾਬਦੇਹੀ ਲਈ ਇੱਕ ਕਾਲ

ਡੀਪਸੀਕ ਵਿਵਾਦ (DeepSeek controversy) ਏਆਈ ਉਦਯੋਗ (AI industry) ਵਿੱਚ ਵਧੇਰੇ ਪਾਰਦਰਸ਼ਤਾ (transparency) ਅਤੇ ਜਵਾਬਦੇਹੀ (accountability) ਦੀ ਲੋੜ ‘ਤੇ ਜ਼ੋਰ ਦਿੰਦਾ ਹੈ। ਏਆਈ ਡਿਵੈਲਪਰਾਂ (AI developers) ਨੂੰ ਆਪਣੇ ਡੇਟਾ ਸੋਰਸਿੰਗ ਅਭਿਆਸਾਂ (data sourcing practices) ਅਤੇ ਉਹਨਾਂ ਵਿਧੀਆਂ ਬਾਰੇ ਪਾਰਦਰਸ਼ੀ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ ਜੋ ਉਹ ਆਪਣੇ ਮਾਡਲਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਵਰਤਦੇ ਹਨ। ਉਹਨਾਂ ਨੂੰ ਬੌਧਿਕ ਜਾਇਦਾਦ ਅਧਿਕਾਰਾਂ (intellectual property rights) ਜਾਂ ਨੈਤਿਕ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ਾਂ ਦੀ ਕਿਸੇ ਵੀ ਉਲੰਘਣਾ ਲਈ ਜਵਾਬਦੇਹ ਵੀ ਠਹਿਰਾਇਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ।

ਇੱਕ ਸੰਭਾਵੀ ਹੱਲ ਡੇਟਾ ਸੋਰਸਿੰਗ (data sourcing) ਅਤੇ ਏਆਈ ਸਿਖਲਾਈ (AI training) ਲਈ ਉਦਯੋਗ-ਵਿਆਪੀ ਮਾਪਦੰਡ ਸਥਾਪਤ ਕਰਨਾ ਹੈ। ਇਹ ਮਾਪਦੰਡ ਡੇਟਾ ਪ੍ਰਾਪਤ ਕਰਨ ਅਤੇ ਵਰਤਣ ਲਈ ਸਭ ਤੋਂ ਵਧੀਆ ਅਭਿਆਸਾਂ ਦਾ ਖਾਕਾ ਤਿਆਰ ਕਰ ਸਕਦੇ ਹਨ, ਅਤੇ ਨਾਲ ਹੀ ਆਡਿਟ ਕਰਨ ਅਤੇ ਪਾਲਣਾ ਨੂੰ ਲਾਗੂ ਕਰਨ ਲਈ ਵਿਧੀਆਂ ਵੀ ਦੱਸ ਸਕਦੇ ਹਨ।

ਇੱਕ ਹੋਰ ਪਹੁੰਚ ਏਆਈ ਮਾਡਲਾਂ (AI models) ਦੀ ਵੰਸ਼ਾਵਲੀ ਦਾ ਪਤਾ ਲਗਾਉਣ ਲਈ ਟੂਲ ਅਤੇ ਤਕਨੀਕਾਂ ਵਿਕਸਤ ਕਰਨਾ ਹੈ। ਇਹ ਟੂਲ ਪ੍ਰਭਾਵ ਦੇ ਸੰਭਾਵੀ ਸਰੋਤਾਂ ਦੀ ਪਛਾਣ ਕਰਨ ਅਤੇ ਇਹ ਨਿਰਧਾਰਤ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰ ਸਕਦੇ ਹਨ ਕਿ ਕੀ ਕਿਸੇ ਮਾਡਲ ਨੂੰ ਮੁਕਾਬਲੇਬਾਜ਼ ਦੇ ਡੇਟਾ (competitor data) ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਗਈ ਹੈ।

ਅੰਤ ਵਿੱਚ, ਏਆਈ ਦੇ ਨੈਤਿਕ ਵਿਕਾਸ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਏਆਈ ਡਿਵੈਲਪਰਾਂ (AI developers), ਖੋਜਕਰਤਾਵਾਂ, ਨੀਤੀ ਨਿਰਮਾਤਾਵਾਂ ਅਤੇ ਜਨਤਾ ਦੀ ਸ਼ਮੂਲੀਅਤ ਵਾਲੇ ਇੱਕ ਸਹਿਯੋਗੀ ਯਤਨ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਇਕੱਠੇ ਕੰਮ ਕਰਕੇ, ਅਸੀਂ ਇੱਕ ਅਜਿਹਾ ਢਾਂਚਾ ਬਣਾ ਸਕਦੇ ਹਾਂ ਜੋ ਬੌਧਿਕ ਜਾਇਦਾਦ ਅਧਿਕਾਰਾਂ (intellectual property rights) ਦੀ ਰੱਖਿਆ ਕਰਦੇ ਹੋਏ ਅਤੇ ਨਿਰਪੱਖਤਾ ਅਤੇ ਜਵਾਬਦੇਹੀ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਂਦੇ ਹੋਏ ਨਵੀਨਤਾ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਦਾ ਹੈ।

ਏਆਈ ਮਾਡਲ ਸਿਖਲਾਈ ਵਿੱਚ ਜ਼ਮੀਨੀ ਸੱਚ ਦੀ ਖੋਜ

ਡੀਪਸੀਕ ਦੀ ਸਥਿਤੀ ਏਆਈ ਮਾਡਲਾਂ (AI models) ਨੂੰ ਕਿਵੇਂ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ ਇਸ ਬਾਰੇ ਵਧ ਰਹੀ ਚਿੰਤਾ ਵੱਲ ਧਿਆਨ ਖਿੱਚਦੀ ਹੈ। ਜਦੋਂ ਕਿ ਏਆਈ ਸਮਰੱਥਾਵਾਂ (AI capabilities) ਨੂੰ ਤੇਜ਼ੀ ਨਾਲ ਬਿਹਤਰ ਬਣਾਉਣ ਦਾ ਲਾਲਚ ਮਜ਼ਬੂਤ ਹੈ, ਇਸ ਟੀਚੇ ਨੂੰ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਵਰਤੇ ਜਾਣ ਵਾਲੇ ਤਰੀਕਿਆਂ ਨੂੰ ਗੰਭੀਰ ਨੈਤਿਕ ਵਿਚਾਰਾਂ (ethical consideration) ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ। ਮਾਮਲੇ ਦਾ ਦਿਲ ਸਿਖਲਾਈ ਲਈ ਵਰਤਿਆ ਜਾਣ ਵਾਲਾ ਡਾਟਾ (data) ਹੈ। ਕੀ ਇਹ ਨੈਤਿਕ ਤੌਰ ‘ਤੇ ਸਰੋਤ ਹੈ? ਕੀ ਇਹ ਕਾਪੀਰਾਈਟ (copyright) ਅਤੇ ਬੌਧਿਕ ਜਾਇਦਾਦ (intellectual property) ਦਾ ਸਨਮਾਨ ਕਰਦਾ ਹੈ? ਜਿਵੇਂ ਕਿ ਏਆਈ ਰੋਜ਼ਾਨਾ ਜੀਵਨ ਨਾਲ ਵਧੇਰੇ ਜੁੜਿਆ ਹੋਇਆ ਹੈ, ਇਹ ਸਵਾਲ ਤੇਜ਼ੀ ਨਾਲ ਮਹੱਤਵਪੂਰਨ ਹੁੰਦੇ ਜਾ ਰਹੇ ਹਨ।

ਏਆਈ ਮਾਡਲਾਂ (AI models) ਲਈ ਡੇਟਾ (data) ਦੇ ਸਹੀ ਸਰੋਤਾਂ ਦਾ ਪਤਾ ਲਗਾਉਣ ਵਿੱਚ ਚੁਣੌਤੀਆਂ ਇੱਕ ਮੁਸ਼ਕਲ ਸਮੱਸਿਆ ਨੂੰ ਉਜਾਗਰ ਕਰਦੀਆਂ ਹਨ। ਐਲਗੋਰਿਦਮ (algorithms) ਦੀ ਗੁੰਝਲਤਾ ਅਤੇ ਵੱਡੀ ਮਾਤਰਾ ਵਿੱਚ ਲੋੜੀਂਦੇ ਡੇਟਾ (data) ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਇੱਕ ਖਾਸ ਮਾਡਲ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਦੇ ਮੂਲ ਨੂੰ ਪ੍ਰਗਟ ਕਰਨਾ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਕੰਮ ਹੋ ਸਕਦਾ ਹੈ, ਜੋ ਕਿ ਏਆਈ ਲਈ ਲਗਭਗ ਫੋਰੈਂਸਿਕ ਵਿਗਿਆਨ (forensic science) ਵਰਗਾ ਹੈ। ਇਸ ਲਈ ਏਆਈ ਮਾਡਲਾਂ (AI models) ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰਨ ਦੇ ਸਮਰੱਥ ਆਧੁਨਿਕ ਟੂਲਜ਼ (modern tools) ਦੇ ਵਿਕਾਸ ਦੀ ਮੰਗ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਤਾਂ ਜੋ ਉਹਨਾਂ ਦੇ ਸਿਖਲਾਈ ਡੇਟਾ (training data) ਦੀ ਉਤਪਤੀ ਦੇ ਨਾਲ-ਨਾਲ ਏਆਈ ਵਿਕਾਸ ਵਿੱਚ ਵਧੇਰੇ ਪਾਰਦਰਸ਼ੀ ਪ੍ਰਕਿਰਿਆਵਾਂ (transparent procedures) ਨੂੰ ਪ੍ਰਗਟ ਕੀਤਾ ਜਾ ਸਕੇ।

ਏਆਈ ਨੈਤਿਕਤਾ ‘ਤੇ ਸਿਖਲਾਈ ਡੇਟਾ ਦਾ ਪ੍ਰਭਾਵ

ਏਆਈ ਨੈਤਿਕਤਾ ‘ਤੇ ਸਿਖਲਾਈ ਡੇਟਾ (training data) ਦਾ ਪ੍ਰਭਾਵ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਏਆਈ ਮਾਡਲ (AI model) ਸਿਰਫ਼ ਓਨੇ ਹੀ ਨਿਰਪੱਖ ਹੁੰਦੇ ਹਨ ਜਿੰਨਾ ਕਿ ਉਹਨਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ। ਮੁਕਾਬਲੇਬਾਜ਼ਾਂ ਤੋਂ ਪ੍ਰਾਪਤ ਕੀਤੇ ਗਏ ਡੇਟਾ (data) ਦੀ ਵਰਤੋਂ ਜਾਂ ਅੰਦਰੂਨੀ ਪੱਖਪਾਤ ਰੱਖਣ ਵਾਲੇ ਡੇਟਾ (data) ਦੀ ਵਰਤੋਂ ਨਾਲ ਪੱਖਪਾਤੀ ਨਤੀਜੇ, ਗੈਰ-ਵਾਜਬ ਵਿਤਕਰਾ ਅਤੇ ਏਆਈ ਐਪਲੀਕੇਸ਼ਨਾਂ (AI applications) ਦੇ ਅੰਦਰ ਸਮਝੌਤਾ ਦੀ ਸਖਤ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਇਸ ਲਈ, ਨੈਤਿਕ ਏਆਈ ਵਿਕਾਸ (ethical AI development) ਨੂੰ ਵਿਭਿੰਨ, ਪ੍ਰਤੀਨਿਧੀ ਅਤੇ ਨੈਤਿਕ ਤੌਰ ‘ਤੇ ਸਰੋਤ ਡੇਟਾ (data) ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਪੱਕੀ ਵਚਨਬੱਧਤਾ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।

ਡੀਪਸੀਕ ਦੇ ਆਲੇ ਦੁਆਲੇ ਦੇ ਮੁੱਦੇ ਮੌਜੂਦਾ ਡੇਟਾ (data) ਨਾਲ ਮਾਡਲਾਂ ਨੂੰ ਸਿਰਫ਼ ਵਧਾਉਣ ਦੇ ਮੁਕਾਬਲੇ ਸੱਚਮੁੱਚ ਅਸਲੀ ਏਆਈ ਵਿਕਾਸ (AI development) ਦੇ ਮੁੱਲ ਬਾਰੇ ਵੱਡੀ ਗੱਲਬਾਤ ਨੂੰ ਵੀ ਉਜਾਗਰ ਕਰਦੇ ਹਨ। ਜਦੋਂ ਕਿ ਵਧੀਆ ਟਿਊਨਿੰਗ (fine-tuning) ਅਤੇ ਟ੍ਰਾਂਸਫਰ ਲਰਨਿੰਗ (transfer learning) ਜਾਇਜ਼ ਰਣਨੀਤੀਆਂ ਹਨ, ਏਆਈ ਕਮਿਊਨਿਟੀ (AI community) ਨੂੰ ਉਨ੍ਹਾਂ ਡਿਵੈਲਪਰਾਂ (developers) ਦੀ ਪਛਾਣ ਅਤੇ ਇਨਾਮ ਦੇਣਾ ਚਾਹੀਦਾ ਹੈ ਜੋ ਅਸਲੀ ਆਰਕੀਟੈਕਚਰ (original architectures) ਅਤੇ ਸਿਖਲਾਈ ਵਿਧੀਆਂ (training methodologies) ਬਣਾਉਣ ਲਈ ਵਚਨਬੱਧ ਹਨ। ਇਹ ਯਕੀਨੀ ਬਣਾਉਂਦਾ ਹੈ ਕਿ ਏਆਈ ਤਰੱਕੀ (AI progress) ਮੌਜੂਦਾ ਕੰਮ ਦੇ ਦੁਬਾਰਾ ਉਤਪਾਦਨ ਦੀ ਬਜਾਏ ਅਸਲ ਨਵੀਨਤਾ ‘ਤੇ ਅਧਾਰਤ ਹੈ।

ਏਆਈ ਵਿੱਚ ਜ਼ਿੰਮੇਵਾਰੀ ਲਈ ਇੱਕ ਢਾਂਚਾ ਬਣਾਉਣਾ

ਅੱਗੇ ਵੇਖਦੇ ਹੋਏ, ਏਆਈ ਵਿੱਚ ਜ਼ਿੰਮੇਵਾਰੀ ਲਈ ਇੱਕ ਢਾਂਚਾ ਬਣਾਉਣ ਲਈ ਕਈ ਮੁੱਖ ਕਦਮਾਂ ਦੀ ਲੋੜ ਹੈ। ਪਹਿਲਾ ਹੈ ਡਾਟਾ ਸੋਰਸਿੰਗ (data sourcing), ਵਰਤੋਂ ਅਤੇ ਬੌਧਿਕ ਜਾਇਦਾਦ ਅਧਿਕਾਰਾਂ (intellectual property rights) ‘ਤੇ ਸਪਸ਼ਟ, ਲਾਗੂ ਕਰਨ ਯੋਗ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ਾਂ ਨੂੰ ਸਥਾਪਤ ਕਰਨਾ। ਇਹ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ ਉਦਯੋਗ-ਵਿਆਪੀ ਹੋਣੇ ਚਾਹੀਦੇ ਹਨ ਅਤੇ ਡਾਟਾ ਸਿਰਜਣਹਾਰਾਂ ਦੇ ਅਧਿਕਾਰਾਂ ਦੀ ਰੱਖਿਆ ਕਰਦੇ ਹੋਏ ਖੁੱਲ੍ਹੇਪਣ ਅਤੇ ਸਹਿਯੋਗ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨੇ ਚਾਹੀਦੇ ਹਨ।

ਦੂਜਾ, ਏਆਈ ਵਿਕਾਸ (AI development) ਵਿੱਚ ਪਾਰਦਰਸ਼ਤਾ (transparency) ਜ਼ਰੂਰੀ ਹੈ। ਡਿਵੈਲਪਰਾਂ (developers) ਨੂੰ ਉਨ੍ਹਾਂ ਦੇ ਮਾਡਲਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਵਰਤੇ ਜਾਣ ਵਾਲੇ ਡੇਟਾ (data), ਵਰਤੀਆਂ ਗਈਆਂ ਤਕਨੀਕਾਂ ਅਤੇ ਏਆਈ ਦੀਆਂ ਸੰਭਾਵੀ ਸੀਮਾਵਾਂ ਅਤੇ ਪੱਖਪਾਤਾਂ (biases) ਬਾਰੇ ਖੁੱਲ੍ਹਾ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ। ਇਹ ਪਾਰਦਰਸ਼ਤਾ (transparency) ਵਿਸ਼ਵਾਸ ਪੈਦਾ ਕਰਦੀ ਹੈ ਅਤੇ ਏਆਈ ਤਕਨਾਲੋਜੀਆਂ (AI technologies) ਦੀ ਜ਼ਿੰਮੇਵਾਰ ਵਰਤੋਂ ਨੂੰ ਸਮਰੱਥ ਬਣਾਉਂਦੀ ਹੈ।

ਇਸ ਤੋਂ ਇਲਾਵਾ, ਏਆਈ ਸਿਸਟਮਾਂ (AI systems) ਦੀ ਨਿਰੰਤਰ ਨਿਗਰਾਨੀ ਅਤੇ ਆਡਿਟਿੰਗ (auditing) ਦੀ ਲੋੜ ਹੈ। ਸਵੈ-ਨਿਯਮਤ ਅਤੇ ਸੁਤੰਤਰ ਆਡਿਟ (independent audits) ਸੰਭਾਵੀ ਪੱਖਪਾਤਾਂ (biases), ਨੈਤਿਕ ਸਮੱਸਿਆਵਾਂ ਅਤੇ ਪਾਲਣਾ ਮੁੱਦਿਆਂ ਦੀ ਪਛਾਣ ਕਰਨ ਅਤੇ ਠੀਕ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰ ਸਕਦੇ ਹਨ। ਇਹ ਚੱਲ ਰਹੀ ਨਿਗਰਾਨੀ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਜ਼ਰੂਰੀ ਹੈ ਕਿ ਏਆਈ ਸਿਸਟਮ (AI system) ਨੈਤਿਕ ਮਿਆਰਾਂ ਅਤੇ ਸਮਾਜਿਕ ਕਦਰਾਂ-ਕੀਮਤਾਂ ਨਾਲ ਜੁੜੇ ਰਹਿਣ।

ਅੰਤ ਵਿੱਚ, ਏਆਈ ਡਿਵੈਲਪਰਾਂ (AI developers), ਉਪਭੋਗਤਾਵਾਂ ਅਤੇ ਨੀਤੀ ਨਿਰਮਾਤਾਵਾਂ (policy makers) ਨੂੰ ਏਆਈ ਦੇ ਨੈਤਿਕ ਨਤੀਜਿਆਂ ਨੂੰ ਸਮਝਣ ਲਈ ਸਿੱਖਿਆ ਅਤੇ ਜਾਗਰੂਕਤਾ ਪ੍ਰੋਗਰਾਮਾਂ (awareness programs) ਦੀ ਲੋੜ ਹੈ। ਇਨ੍ਹਾਂ ਪ੍ਰੋਗਰਾਮਾਂ ਵਿੱਚ ਡੇਟਾ ਗੁਪਤਤਾ, ਐਲਗੋਰਿਦਮ (algorithm) ਪੱਖਪਾਤ (biases) ਅਤੇ ਜ਼ਿੰਮੇਵਾਰ ਏਆਈ ਡਿਜ਼ਾਈਨ (responsible AI design) ਵਰਗੇ ਵਿਸ਼ੇ ਸ਼ਾਮਲ ਕੀਤੇ ਜਾਣੇ ਚਾਹੀਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਏਆਈ ਕਮਿਊਨਿਟੀ (AI community) ਵਿੱਚ ਨੈਤਿਕ ਜਾਗਰੂਕਤਾ ਅਤੇ ਜਵਾਬਦੇਹੀ ਦੀ ਸੱਭਿਆਚਾਰ ਨੂੰ ਵਧਾਇਆ ਜਾ ਸਕੇ।

ਤਕਨੀਕੀ ਪੱਖ ਦੀ ਜਾਂਚ: ਰਿਵਰਸ ਇੰਜੀਨੀਅਰਿੰਗ ਏਆਈ ਮਾਡਲ

ਡੀਪਸੀਕ ਦੋਸ਼ਾਂ ਦਾ ਇੱਕ ਦਿਲਚਸਪ ਪਹਿਲੂ ਏਆਈ ਮਾਡਲਾਂ (AI models) ਨੂੰ ਉਹਨਾਂ ਦੇ ਸਿਖਲਾਈ ਡੇਟਾ (training data) ਨੂੰ ਨਿਰਧਾਰਤ ਕਰਨ ਲਈ ਰਿਵਰਸ ਇੰਜੀਨੀਅਰਿੰਗ (reverse engineering) ਕਰਨ ਦੀ ਤਕਨੀਕੀ ਚੁਣੌਤੀ ਹੈ। ਇਸ ਵਿੱਚ ਇੱਕ ਮਾਡਲ ਦੇ ਵਿਵਹਾਰ ਅਤੇ ਆਉਟਪੁੱਟ ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰਨ ਲਈ ਟੂਲ (tool) ਅਤੇ ਤਕਨੀਕਾਂ (techniques) ਦੀ ਵਰਤੋਂ ਕਰਨਾ, ਇਸਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਵਾਲੇ ਡੇਟਾ (data) ਦਾ ਅੰਦਾਜ਼ਾ ਲਗਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਨਾ ਸ਼ਾਮਲ ਹੈ। ਇਹ ਬਾਇਓਇਨਫਾਰਮੈਟਿਕਸ (bioinformatics) ਦੇ ਸਮਾਨ ਹੈ, ਜਿਵੇਂ ਕਿ ਪੇਚ ਨੇ ਕੀਤਾ ਸੀ, ਜਿੱਥੇ ਤੁਸੀਂ ਇਸਦੇ ਮੂਲ ਅਤੇ ਫੰਕਸ਼ਨ (function) ਨੂੰ ਸਮਝਣ ਲਈ ਗੁੰਝਲਦਾਰ ਜੀਵ-ਵਿਗਿਆਨਕ ਡੇਟਾ (complex biological data) ਨੂੰ ਕੱਟਦੇ ਹੋ।

ਖੋਜਕਰਤਾ ਏਆਈ ਮਾਡਲਾਂ (AI models) ਵਿੱਚ ਖਾਸ ਡੇਟਾ (data) ਜਾਂ ਪੈਟਰਨਾਂ (patterns) ਦੀ ਮੌਜੂਦਗੀ ਦਾ ਪਤਾ ਲਗਾਉਣ ਲਈ ਆਧੁਨਿਕ ਤਰੀਕਿਆਂ ਨੂੰ ਵਿਕਸਿਤ ਕਰਨ ਲਈ ਸਖ਼ਤ ਮਿਹਨਤ ਕਰ ਰਹੇ ਹਨ। ਇਹ ਤਰੀਕੇ ਮਾਡਲ ਦੇ ਵਿਵਹਾਰ ਅਤੇ ਜਾਣੇ ਜਾਂਦੇ ਡੇਟਾਸੈਟਾਂ (datasets) ਵਿਚਕਾਰ ਸਮਾਨਤਾਵਾਂ ਲੱਭਣ ਲਈ ਅੰਕੜਾ ਵਿਸ਼ਲੇਸ਼ਣ (statistical analysis), ਪੈਟਰਨ ਪਛਾਣ (pattern recognition) ਅਤੇ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਤਕਨੀਕਾਂ (machine learning techniques) ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਨ। ਜਦੋਂ ਕਿ ਇਹ ਖੇਤਰ ਹਾਲੇ ਵਿਕਾਸ ਅਧੀਨ ਹੈ, ਇਸ ਵਿਚ ਡੇਟਾ ਦੀ ਦੁਰਵਰਤੋਂ ਦੇ ਸ਼ੱਕੀ ਮਾਮਲਿਆਂ ਵਿਚ ਵਧੇਰੇ ਯਕੀਨੀ ਸਬੂਤ ਪ੍ਰਦਾਨ ਕਰਨ ਦਾ ਵਾਅਦਾ ਹੈ।

ਏਆਈ ਘੋਟਾਲਿਆਂ ਦਾ ਸਮਾਜਿਕ ਪ੍ਰਭਾਵ

ਡੀਪਸੀਕ ਮਾਮਲੇ ਵਰਗੇ ਏਆਈ ਘੋਟਾਲਿਆਂ (AI scandals) ਦੇ ਵਿਆਪਕ ਸਮਾਜਿਕ ਨਤੀਜੇ ਹਨ। ਉਹ ਏਆਈ ਤਕਨਾਲੋਜੀ (AI technology) ਵਿੱਚ ਜਨਤਕ ਵਿਸ਼ਵਾਸ ਨੂੰ ਖਤਮ ਕਰਦੇ ਹਨ, ਗੁਪਤਤਾ ਅਤੇ ਸੁਰੱਖਿਆ ਬਾਰੇ ਚਿੰਤਾਵਾਂ ਪੈਦਾ ਕਰਦੇ ਹਨ, ਅਤੇ ਸਮਾਜ ਵਿੱਚ ਏਆਈ ਦੀ ਭੂਮਿਕਾ ਬਾਰੇ ਬਹਿਸ ਨੂੰ ਉਤੇਜਿਤ ਕਰਦੇ ਹਨ। ਭਰੋਸੇ ਨੂੰ ਬਰਕਰਾਰ ਰੱਖਣ ਅਤੇ ਵਿਆਪਕ ਸ਼ੱਕ ਨੂੰ ਰੋਕਣ ਲਈ ਇਨ੍ਹਾਂ ਘੋਟਾਲਿਆਂ (scandals) ‘ਤੇ ਤੁਰੰਤ ਅਤੇ ਪਾਰਦਰਸ਼ੀ ਢੰਗ ਨਾਲ ਧਿਆਨ ਦੇਣ ਦੀ ਲੋੜ ਹੈ।

ਜਿਵੇਂ ਕਿ ਏਆਈ ਸਿਹਤ ਸੰਭਾਲ, ਵਿੱਤ ਅਤੇ ਸ਼ਾਸਨ ਵਰਗੇ ਨਾਜ਼ੁਕ ਖੇਤਰਾਂ ਵਿੱਚ ਵਧੇਰੇ ਏਕੀਕ੍ਰਿਤ ਹੋ ਜਾਂਦੀ ਹੈ, ਦਾਅ ਵਧੇਰੇ ਹੁੰਦੇ ਜਾਂਦੇ ਹਨ। ਨੈਤਿਕ ਉਲੰਘਣਾਵਾਂ ਅਤੇ ਡੇਟਾ ਉਲੰਘਣਾਵਾਂ (data breaches) ਵਿਅਕਤੀਆਂ ਅਤੇ ਸਮਾਜਾਂ ਲਈ ਮਹੱਤਵਪੂਰਨ ਨਤੀਜੇ ਲੈ ਸਕਦੀਆਂ ਹਨ, ਮਜ਼ਬੂਤ ਰੈਗੂਲੇਟਰੀ ਢਾਂਚਿਆਂ (regulatory frameworks) ਅਤੇ ਜ਼ਿੰਮੇਵਾਰ ਏਆਈ ਵਿਕਾਸ ਅਭਿਆਸਾਂ (AI development practices) ਦੀ ਲੋੜ ਨੂੰ ਉਜਾਗਰ ਕਰਦੀਆਂ ਹਨ।

ਏਆਈ ਸਿਖਲਾਈ ‘ਤੇ ਮੁੜ ਵਿਚਾਰ: ਨਾਵਲ ਪਹੁੰਚ

ਏਆਈ ਸਿਖਲਾਈ (AI training) ਦੇ ਆਲੇ ਦੁਆਲੇ ਦੇ ਵਿਵਾਦ ਖੋਜਕਰਤਾਵਾਂ (researchers) ਨੂੰ ਨਵੀਆਂ ਰਣਨੀਤੀਆਂ ਦੀ ਖੋਜ ਕਰਨ ਲਈ ਧੱਕ ਰਹੇ ਹਨ ਜੋ ਵਧੇਰੇ ਨੈਤਿਕ, ਕੁਸ਼ਲ ਅਤੇ ਲਚਕਦਾਰ ਹਨ। ਇੱਕ ਵਾਅਦਾ ਕਰਨ ਵਾਲੀ ਪਹੁੰਚ ਸਕਰੈਚ ਤੋਂ ਬਣਾਏ ਗਏ ਸਿੰਥੈਟਿਕ ਡੇਟਾ (synthetic data) ਦੀ ਵਰਤੋਂ ਹੈ, ਜਿਸ ਨਾਲ ਮੌਜੂਦਾ ਡੇਟਾਸੈਟਾਂ (datasets) ‘ਤੇ ਨਿਰਭਰ ਕਰਨ ਦੀ ਲੋੜ ਖਤਮ ਹੋ ਜਾਂਦੀ ਹੈ। ਸਿੰਥੈਟਿਕ ਡੇਟਾ (synthetic data) ਨੂੰ ਵਿਸ਼ੇਸ਼ ਲੋੜਾਂ ਨੂੰ ਪੂਰਾ ਕਰਨ ਲਈ ਡਿਜ਼ਾਈਨ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ, ਪੱਖਪਾਤਾਂ (biases) ਤੋਂ ਬਚਿਆ ਜਾ ਸਕਦਾ ਹੈ ਅਤੇ ਡੇਟਾ ਦੀ ਗੁਪਤਤਾ ਨੂੰ ਯਕੀਨੀ ਬਣਾਇਆ ਜਾ ਸਕਦਾ ਹੈ।

ਇੱਕ ਹੋਰ ਤਰੀਕਾ ਸੰਘੀ ਸਿਖਲਾਈ (federated learning) ਹੈ, ਜਿੱਥੇ ਏਆਈ ਮਾਡਲਾਂ (AI models) ਨੂੰ ਅੰਡਰਲਾਈੰਗ ਡੇਟਾ (underlying data) ਨੂੰ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਐਕਸੈਸ (access) ਜਾਂ ਸਾਂਝਾ ਕੀਤੇ ਬਿਨਾਂ ਵਿਕੇਂਦਰੀਕ੍ਰਿਤ ਡੇਟਾ ਸਰੋਤਾਂ ‘ਤੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ। ਇਹ ਤਕਨੀਕ ਡੇਟਾ ਦੀ ਗੁਪਤਤਾ ਦੀ ਰੱਖਿਆ ਕਰਦੇ ਹੋਏ ਸਹਿਯੋਗੀ ਸਿਖਲਾਈ ਦੀ ਆਗਿਆ ਦਿੰਦੀ ਹੈ, ਜਿੱਥੇ ਡੇਟਾ ਐਕਸੈਸ (data access) ‘ਤੇ ਪਾਬੰਦੀ ਹੈ, ਉਨ੍ਹਾਂ ਖੇਤਰਾਂ ਵਿੱਚ ਏਆਈ ਵਿਕਾਸ ਲਈ ਨਵੀਆਂ ਸੰਭਾਵਨਾਵਾਂ ਖੋਲ੍ਹਦੀ ਹੈ।

ਇਸ ਤੋਂ ਇਲਾਵਾ, ਖੋਜਕਰਤਾ ਟਰਾਂਸਫਰ ਲਰਨਿੰਗ (transfer learning) ਅਤੇ ਮੈਟਾ-ਲਰਨਿੰਗ (meta-learning) ਵਰਗੀਆਂ ਰਣਨੀਤੀਆਂ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਥੋੜ੍ਹੇ ਡੇਟਾ (data) ਨਾਲ ਏਆਈ ਮਾਡਲਾਂ (AI models) ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਦੇ ਤਰੀਕਿਆਂ ਦੀ ਖੋਜ ਕਰ ਰਹੇ ਹਨ। ਇਹ ਰਣਨੀਤੀਆਂ ਮਾਡਲਾਂ ਨੂੰ ਸੀਮਤ ਡੇਟਾ (limited data) ਤੋਂ ਆਮ ਬਣਾਉਣ ਦੇ ਯੋਗ ਬਣਾਉਂਦੀਆਂ ਹਨ, ਵੱਡੇ ਡੇਟਾਸੈਟਾਂ (datasets) ‘ਤੇ ਨਿਰਭਰਤਾ ਨੂੰ ਘਟਾਉਂਦੀਆਂ ਹਨ ਅਤੇ ਸਿਖਲਾਈ ਪ੍ਰਕਿਰਿਆ ਨੂੰ ਵਧੇਰੇ ਆਰਥਿਕ ਅਤੇ ਟਿਕਾਊ ਬਣਾਉਂਦੀਆਂ ਹਨ।

ਸਿੱਟਾ: ਨੈਤਿਕ ਏਆਈ ਲਈ ਇੱਕ ਕੋਰਸ ਚਾਰਟ (Chart a course) ਕਰਨਾ

ਡੀਪਸੀਕ ਦੇ ਖਿਲਾਫ ਦੋਸ਼ ਏਆਈ ਕਮਿਊਨਿਟੀ (AI community) ਲਈ ਇੱਕ ਜਾਗਰੂਕਤਾ ਕਾਲ ਦੇ ਤੌਰ ‘ਤੇ ਕੰਮ ਕਰਦੇ ਹਨ। ਜਿਵੇਂ ਕਿ ਏਆਈ ਤਕਨਾਲੋਜੀ (AI technology