ਗੂਗਲ ਦਾ Gemini 2.5 Pro: ਸੁਰੱਖਿਆ ਰਿਪੋਰਟ ਗਾਇਬ

ਗੂਗਲ ਦੇ Gemini 2.5 Pro AI ਮਾਡਲ ਦੀ ਹਾਲ ਹੀ ਵਿੱਚ ਜਾਰੀ ਹੋਈ ਰਿਪੋਰਟ ਨੇ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਸੁਰੱਖਿਆ ਰਿਪੋਰਟ ਦੀ ਅਣਹੋਂਦ ਕਾਰਨ ਵਿਵਾਦ ਪੈਦਾ ਕਰ ਦਿੱਤਾ ਹੈ। ਇਹ ਕਮੀ ਅਮਰੀਕੀ ਸਰਕਾਰ ਅਤੇ ਅੰਤਰਰਾਸ਼ਟਰੀ ਸੰਮੇਲਨਾਂ ਵਿੱਚ ਗੂਗਲ ਦੁਆਰਾ ਕੀਤੇ ਗਏ ਵਾਅਦਿਆਂ ਦੇ ਉਲਟ ਜਾਪਦੀ ਹੈ, ਜਿਸ ਨਾਲ ਕੰਪਨੀ ਦੀ ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਜ਼ਿੰਮੇਵਾਰ AI ਵਿਕਾਸ ਪ੍ਰਤੀ ਵਚਨਬੱਧਤਾ ਬਾਰੇ ਚਿੰਤਾਵਾਂ ਵੱਧ ਗਈਆਂ ਹਨ। ਮਾਹਰ ਹੁਣ ਸਵਾਲ ਕਰ ਰਹੇ ਹਨ ਕਿ ਕੀ ਗੂਗਲ ਅਤੇ ਹੋਰ ਪ੍ਰਮੁੱਖ AI ਲੈਬਾਂ ਆਪਣੇ AI ਮਾਡਲਾਂ ਨਾਲ ਜੁੜੀਆਂ ਸਮਰੱਥਾਵਾਂ ਅਤੇ ਸੰਭਾਵੀ ਜੋਖਮਾਂ ਬਾਰੇ ਲੋਕਾਂ ਨੂੰ ਸੂਚਿਤ ਕਰਨ ਦੇ ਆਪਣੇ ਵਾਅਦਿਆਂ ਤੋਂ ਪਿੱਛੇ ਹਟ ਰਹੀਆਂ ਹਨ।

ਟੁੱਟੇ ਵਾਅਦੇ ਅਤੇ ਅਧੂਰੇ ਵਚਨ

Gemini 2.5 Pro ਦੀ ਰਿਲੀਜ਼ ਦੇ ਨਾਲ ਸੁਰੱਖਿਆ ਖੋਜ ਰਿਪੋਰਟ ਪ੍ਰਦਾਨ ਕਰਨ ਵਿੱਚ ਗੂਗਲ ਦੀ ਅਸਫਲਤਾ ਨੂੰ ਪਿਛਲੀਆਂ ਵਚਨਬੱਧਤਾਵਾਂ ਦੀ ਉਲੰਘਣਾ ਮੰਨਿਆ ਜਾ ਰਿਹਾ ਹੈ। ਜੁਲਾਈ 2023 ਵਿੱਚ, ਗੂਗਲ ਨੇ ਬਿਡੇਨ ਪ੍ਰਸ਼ਾਸਨ ਦੁਆਰਾ ਬੁਲਾਈ ਗਈ ਇੱਕ ਵ੍ਹਾਈਟ ਹਾਊਸ ਦੀ ਮੀਟਿੰਗ ਵਿੱਚ ਹਿੱਸਾ ਲਿਆ, ਜਿੱਥੇ ਇਸਨੇ ਕਈ ਹੋਰ ਪ੍ਰਮੁੱਖ AI ਕੰਪਨੀਆਂ ਨਾਲ ਵਾਅਦਿਆਂ ਦੀ ਇੱਕ ਲੜੀ ‘ਤੇ ਹਸਤਾਖਰ ਕੀਤੇ। ਇੱਕ ਮੁੱਖ ਵਚਨਬੱਧਤਾ ਸਾਰੇ ਵੱਡੇ ਜਨਤਕ ਮਾਡਲ ਰੀਲੀਜ਼ਾਂ ਲਈ ਰਿਪੋਰਟਾਂ ਦਾ ਪ੍ਰਕਾਸ਼ਨ ਸੀ ਜਿਨ੍ਹਾਂ ਨੇ ਉਸ ਸਮੇਂ ਮੌਜੂਦਾ ਸਟੇਟ-ਆਫ-ਦੀ-ਆਰਟ AI ਨੂੰ ਪਛਾੜ ਦਿੱਤਾ ਸੀ। ਇਸਦੀਆਂ ਤਰੱਕੀਆਂ ਨੂੰ ਦੇਖਦੇ ਹੋਏ, Gemini 2.5 Pro ਲਗਭਗ ਨਿਸ਼ਚਤ ਰੂਪ ਨਾਲ ਇਹਨਾਂ ਵ੍ਹਾਈਟ ਹਾਊਸ ਵਚਨਬੱਧਤਾਵਾਂ ਦੇ ਦਾਇਰੇ ਵਿੱਚ ਆ ਜਾਵੇਗਾ।

ਉਸ ਸਮੇਂ, ਗੂਗਲ ਇਸ ਗੱਲ ਨਾਲ ਸਹਿਮਤ ਸੀ ਕਿ ਇਹਨਾਂ ਰਿਪੋਰਟਾਂ ਵਿੱਚ ਸ਼ਾਮਲ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ:

  • ਸੁਰੱਖਿਆ ਮੁਲਾਂਕਣ ਕੀਤੇ ਗਏ, ਜਿਸ ਵਿੱਚ ਖਤਰਨਾਕ ਸਮਰੱਥਾਵਾਂ ਦਾ ਮੁਲਾਂਕਣ ਵੀ ਸ਼ਾਮਲ ਹੈ।
  • ਮਹੱਤਵਪੂਰਨ ਪ੍ਰਦਰਸ਼ਨ ਸੀਮਾਵਾਂ ਜੋ ਢੁਕਵੇਂ ਵਰਤੋਂ ਦੇ ਮਾਮਲਿਆਂ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕਰ ਸਕਦੀਆਂ ਹਨ।
  • ਨਿਰਪੱਖਤਾ ਅਤੇ ਪੱਖਪਾਤ ਵਰਗੇ ਸਮਾਜਿਕ ਜੋਖਮਾਂ ‘ਤੇ ਮਾਡਲ ਦੇ ਪ੍ਰਭਾਵਾਂ ਬਾਰੇ ਚਰਚਾਵਾਂ।
  • ਮਾਡਲ ਦੀ ਤੈਨਾਤੀ ਲਈ ਫਿਟਨੈਸ ਦਾ ਮੁਲਾਂਕਣ ਕਰਨ ਲਈ ਵਿਰੋਧੀ ਟੈਸਟਿੰਗ ਦੇ ਨਤੀਜੇ।

ਅਕਤੂਬਰ 2023 ਵਿੱਚ ਹੀਰੋਸ਼ੀਮਾ, ਜਪਾਨ ਵਿੱਚ ਹੋਈ G7 ਮੀਟਿੰਗ ਤੋਂ ਬਾਅਦ, ਗੂਗਲ ਅਤੇ ਹੋਰ ਕੰਪਨੀਆਂ ਨੇ ਉੱਨਤ AI ਦੇ ਵਿਕਾਸ ਲਈ ਇੱਕ ਸਵੈ-ਇੱਛਤ ਕੋਡ ਆਫ ਕੰਡਕਟ ਦੀ ਪਾਲਣਾ ਕਰਨ ਦਾ ਵਾਅਦਾ ਕੀਤਾ। ਇਸ G7 ਕੋਡ ਨੇ ਉੱਨਤ AI ਪ੍ਰਣਾਲੀਆਂ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ, ਸੀਮਾਵਾਂ ਅਤੇ ਢੁਕਵੇਂ ਅਤੇ ਗੈਰ-ਢੁਕਵੇਂ ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੀ ਜਨਤਕ ਤੌਰ ‘ਤੇ ਰਿਪੋਰਟ ਕਰਨ ਦੀ ਮਹੱਤਤਾ ‘ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ। ਇਸਦਾ ਉਦੇਸ਼ AI ਖੇਤਰ ਵਿੱਚ ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਜਵਾਬਦੇਹੀ ਨੂੰ ਵਧਾਉਣਾ ਸੀ।

ਮਈ 2024 ਵਿੱਚ, ਸਿਓਲ, ਦੱਖਣੀ ਕੋਰੀਆ ਵਿੱਚ AI ਸੁਰੱਖਿਆ ‘ਤੇ ਇੱਕ ਅੰਤਰਰਾਸ਼ਟਰੀ ਸੰਮੇਲਨ ਵਿੱਚ, ਗੂਗਲ ਨੇ ਆਪਣੀਆਂ ਵਚਨਬੱਧਤਾਵਾਂ ਨੂੰ ਦੁਹਰਾਇਆ। ਕੰਪਨੀ ਨੇ ਜਨਤਕ ਤੌਰ ‘ਤੇ ਮਾਡਲ ਸਮਰੱਥਾਵਾਂ, ਸੀਮਾਵਾਂ, ਢੁਕਵੇਂ ਅਤੇ ਅਣਉਚਿਤ ਵਰਤੋਂ ਦੇ ਮਾਮਲਿਆਂ ਦਾ ਖੁਲਾਸਾ ਕਰਨ, ਅਤੇ ਇਸਦੇ ਜੋਖਮ ਮੁਲਾਂਕਣਾਂ ਅਤੇ ਨਤੀਜਿਆਂ ਦੇ ਆਲੇ ਦੁਆਲੇ ਪਾਰਦਰਸ਼ਤਾ ਪ੍ਰਦਾਨ ਕਰਨ ਦਾ ਵਾਅਦਾ ਕੀਤਾ।

ਗੂਗਲ ਦਾ ਜਵਾਬ ਅਤੇ ਦੇਰੀ ਨਾਲ ਪਾਰਦਰਸ਼ਤਾ

ਗਾਇਬ ਸੁਰੱਖਿਆ ਰਿਪੋਰਟ ਬਾਰੇ ਪੁੱਛਗਿੱਛ ਦੇ ਜਵਾਬ ਵਿੱਚ, ਗੂਗਲ ਡੀਪਮਾਈਂਡ ਦੇ ਇੱਕ ਬੁਲਾਰੇ, ਜੋ ਕਿ Gemini ਮਾਡਲ ਵਿਕਸਤ ਕਰਨ ਲਈ ਜ਼ਿੰਮੇਵਾਰ ਡਿਵੀਜ਼ਨ ਹੈ, ਨੇ ਕਿਹਾ ਕਿ ਨਵੀਨਤਮ Gemini ਨੇ ਰੀਲੀਜ਼ ਤੋਂ ਪਹਿਲਾਂ ਟੈਸਟਿੰਗ ਕੀਤੀ ਸੀ। ਇਸ ਵਿੱਚ ਅੰਦਰੂਨੀ ਵਿਕਾਸ ਮੁਲਾਂਕਣ ਅਤੇ ਮਾਡਲ ਦੀ ਰਿਲੀਜ਼ ਤੋਂ ਪਹਿਲਾਂ ਕੀਤੇ ਗਏ ਭਰੋਸੇ ਦੇ ਮੁਲਾਂਕਣ ਸ਼ਾਮਲ ਸਨ। ਬੁਲਾਰੇ ਨੇ ਇਹ ਵੀ ਸੰਕੇਤ ਦਿੱਤਾ ਕਿ ਵਾਧੂ ਸੁਰੱਖਿਆ ਜਾਣਕਾਰੀ ਅਤੇ ਮਾਡਲ ਕਾਰਡਾਂ ਵਾਲੀ ਇੱਕ ਰਿਪੋਰਟ “ਜਲਦੀ ਆ ਰਹੀ ਹੈ”। ਹਾਲਾਂਕਿ, 2 ਅਪ੍ਰੈਲ ਨੂੰ ਜਾਰੀ ਕੀਤੇ ਗਏ ਸ਼ੁਰੂਆਤੀ ਬਿਆਨ ਦੇ ਬਾਵਜੂਦ, ਅਜੇ ਤੱਕ ਕੋਈ ਮਾਡਲ ਕਾਰਡ ਪ੍ਰਕਾਸ਼ਿਤ ਨਹੀਂ ਕੀਤਾ ਗਿਆ ਹੈ।

ਸੁਰੱਖਿਆ ਰਿਪੋਰਟਿੰਗ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਨ ਦਾ ਇੱਕ ਵਿਸ਼ਾਲ ਰੁਝਾਨ

AI ਸੁਰੱਖਿਆ ਪ੍ਰਤੀ ਆਪਣੀ ਵਚਨਬੱਧਤਾ ਦੇ ਸਬੰਧ ਵਿੱਚ ਆਲੋਚਨਾ ਦਾ ਸਾਹਮਣਾ ਕਰਨ ਵਾਲਾ ਗੂਗਲ ਇਕੱਲਾ ਨਹੀਂ ਹੈ। ਇਸ ਸਾਲ ਦੇ ਸ਼ੁਰੂ ਵਿੱਚ, OpenAI ਨੂੰ ਆਪਣੇ ਡੀਪ ਰਿਸਰਚ ਮਾਡਲ ਲਈ ਸਮੇਂ ਸਿਰ ਮਾਡਲ ਕਾਰਡ ਜਾਰੀ ਕਰਨ ਵਿੱਚ ਅਸਫਲ ਰਹਿਣ ਲਈ ਵੀ ਜਾਂਚ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪਿਆ। ਇਸ ਦੀ ਬਜਾਏ, ਉਹਨਾਂ ਨੇ ਪ੍ਰੋਜੈਕਟ ਦੀ ਸ਼ੁਰੂਆਤੀ ਰਿਲੀਜ਼ ਤੋਂ ਹਫ਼ਤਿਆਂ ਬਾਅਦ ਇੱਕ ਸਿਸਟਮ ਕਾਰਡ ਪ੍ਰਕਾਸ਼ਿਤ ਕੀਤਾ। ਇਸੇ ਤਰ੍ਹਾਂ, Meta ਦੀ Llama 4 ਲਈ ਹਾਲ ਹੀ ਦੀ ਸੁਰੱਖਿਆ ਰਿਪੋਰਟ ਦੀ ਬਹੁਤ ਸੰਖੇਪ ਅਤੇ ਵੇਰਵੇ ਦੀ ਘਾਟ ਲਈ ਆਲੋਚਨਾ ਕੀਤੀ ਗਈ ਹੈ।

ਇਹ ਉਦਾਹਰਣਾਂ AI ਉਦਯੋਗ ਦੇ ਅੰਦਰ ਇੱਕ ਚਿੰਤਾਜਨਕ ਰੁਝਾਨ ਨੂੰ ਉਜਾਗਰ ਕਰਦੀਆਂ ਹਨ, ਜਿੱਥੇ ਕੁਝ ਵੱਡੀਆਂ ਲੈਬਾਂ ਆਪਣੇ ਮਾਡਲ ਰੀਲੀਜ਼ਾਂ ਦੇ ਅਨੁਸਾਰ ਸੁਰੱਖਿਆ ਰਿਪੋਰਟਿੰਗ ਨੂੰ ਤਰਜੀਹ ਨਹੀਂ ਦੇ ਰਹੀਆਂ ਹਨ। ਇਹ ਵਿਸ਼ੇਸ਼ ਤੌਰ ‘ਤੇ ਪਰੇਸ਼ਾਨ ਕਰਨ ਵਾਲੀ ਗੱਲ ਹੈ ਕਿਉਂਕਿ ਇਨ੍ਹਾਂ ਕੰਪਨੀਆਂ ਨੇ ਅਮਰੀਕੀ ਸਰਕਾਰ ਅਤੇ ਗਲੋਬਲ ਭਾਈਚਾਰੇ ਨਾਲ ਅਜਿਹੀਆਂ ਰਿਪੋਰਟਾਂ ਤਿਆਰ ਕਰਨ ਲਈ ਸਵੈ-ਇੱਛਤ ਵਚਨਬੱਧਤਾਵਾਂ ਕੀਤੀਆਂ ਹਨ। ਇਹ ਵਚਨਬੱਧਤਾਵਾਂ ਸ਼ੁਰੂ ਵਿੱਚ 2023 ਵਿੱਚ ਬਿਡੇਨ ਪ੍ਰਸ਼ਾਸਨ ਨਾਲ ਕੀਤੀਆਂ ਗਈਆਂ ਸਨ ਅਤੇ ਬਾਅਦ ਵਿੱਚ ਹੀਰੋਸ਼ੀਮਾ ਵਿੱਚ ਆਪਣੇ AI ਸੰਮੇਲਨ ਵਿੱਚ G7 ਰਾਸ਼ਟਰਾਂ ਦੁਆਰਾ ਅਪਣਾਏ ਗਏ AI ਕੋਡ ਆਫ ਕੰਡਕਟ ਦੀ ਪਾਲਣਾ ਕਰਨ ਦੇ ਵਾਅਦਿਆਂ ਦੁਆਰਾ ਮਜ਼ਬੂਤ ਕੀਤੀਆਂ ਗਈਆਂ ਸਨ।

ਸੈਂਟਰ ਫਾਰ ਡੈਮੋਕਰੇਸੀ ਐਂਡ ਟੈਕਨਾਲੋਜੀ ਵਿਖੇ AI ਗਵਰਨੈਂਸ ਦੇ ਸਲਾਹਕਾਰ ਕੇਵਿਨ ਬੈਂਕਸਟਨ ਨੇ ਆਪਣੀ ਨਿਰਾਸ਼ਾ ਜ਼ਾਹਰ ਕਰਦਿਆਂ ਕਿਹਾ ਕਿ ਇਹ ਅਸਫਲਤਾਵਾਂ ਸ਼ਾਮਲ ਕੰਪਨੀਆਂਦੀ ਭਰੋਸੇਯੋਗਤਾ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰਦੀਆਂ ਹਨ ਅਤੇ ਜ਼ਿੰਮੇਵਾਰ AI ਵਿਕਾਸ ਪ੍ਰਤੀ ਉਨ੍ਹਾਂ ਦੀ ਵਚਨਬੱਧਤਾ ਬਾਰੇ ਸਵਾਲ ਖੜ੍ਹੇ ਕਰਦੀਆਂ ਹਨ।

ਜਵਾਬ ਨਾ ਦਿੱਤੇ ਸਵਾਲ ਅਤੇ ਬਾਹਰੀ ਮੁਲਾਂਕਣ

ਗੂਗਲ ਦੇ ਬੁਲਾਰੇ ਦਾ ਬਿਆਨ ਇਸ ਬਾਰੇ ਖਾਸ ਸਵਾਲਾਂ ਨੂੰ ਵੀ ਸੰਬੋਧਨ ਕਰਨ ਵਿੱਚ ਅਸਫਲ ਰਿਹਾ ਕਿ ਕੀ Gemini 2.5 Pro ਨੂੰ ਯੂ.ਕੇ. AI ਸੁਰੱਖਿਆ ਸੰਸਥਾ ਜਾਂ ਯੂ.ਐੱਸ. AI ਸੁਰੱਖਿਆ ਸੰਸਥਾ ਦੁਆਰਾ ਬਾਹਰੀ ਮੁਲਾਂਕਣ ਲਈ ਜਮ੍ਹਾਂ ਕਰਵਾਇਆ ਗਿਆ ਸੀ। ਪਹਿਲਾਂ, ਗੂਗਲ ਨੇ ਆਪਣੇ Gemini ਮਾਡਲਾਂ ਦੀਆਂ ਪਹਿਲੀਆਂ ਪੀੜ੍ਹੀਆਂ ਨੂੰ ਮੁਲਾਂਕਣ ਲਈ ਯੂ.ਕੇ. AI ਸੁਰੱਖਿਆ ਸੰਸਥਾ ਨੂੰ ਪ੍ਰਦਾਨ ਕੀਤਾ ਸੀ।

ਸਿਓਲ ਸੁਰੱਖਿਆ ਸੰਮੇਲਨ ਵਿੱਚ, ਗੂਗਲ ਨੇ “ਫਰੰਟੀਅਰ AI ਸੁਰੱਖਿਆ ਵਚਨਬੱਧਤਾਵਾਂ” ‘ਤੇ ਹਸਤਾਖਰ ਕੀਤੇ, ਜਿਸ ਵਿੱਚ ਸੁਰੱਖਿਆ ਮੁਲਾਂਕਣਾਂ ਦੇ ਲਾਗੂ ਕਰਨ ‘ਤੇ ਜਨਤਕ ਪਾਰਦਰਸ਼ਤਾ ਪ੍ਰਦਾਨ ਕਰਨ ਦਾ ਵਾਅਦਾ ਸ਼ਾਮਲ ਸੀ। ਇਸਦੇ ਸਿਰਫ ਅਪਵਾਦ ਉਹ ਮਾਮਲੇ ਸਨ ਜਿੱਥੇ ਅਜਿਹਾ ਕਰਨ ਨਾਲ ਜੋਖਮ ਵਧੇਗਾ ਜਾਂ ਸਮਾਜਿਕ ਲਾਭ ਦੇ ਅਨੁਪਾਤ ਵਿੱਚ ਸੰਵੇਦਨਸ਼ੀਲ ਵਪਾਰਕ ਜਾਣਕਾਰੀ ਦਾ ਖੁਲਾਸਾ ਹੋਵੇਗਾ। ਵਚਨਬੱਧਤਾ ਵਿੱਚ ਇਹ ਵੀ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ ਵਧੇਰੇ ਵਿਸਤ੍ਰਿਤ ਜਾਣਕਾਰੀ ਜੋ ਜਨਤਕ ਤੌਰ ‘ਤੇ ਸਾਂਝੀ ਨਹੀਂ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ, ਫਿਰ ਵੀ ਉਨ੍ਹਾਂ ਦੇਸ਼ਾਂ ਦੀਆਂ ਸਰਕਾਰਾਂ ਨਾਲ ਸਾਂਝੀ ਕੀਤੀ ਜਾਣੀ ਚਾਹੀਦੀ ਹੈ ਜਿਨ੍ਹਾਂ ਵਿੱਚ ਕੰਪਨੀਆਂ ਅਧਾਰਤ ਹਨ, ਜੋ ਕਿ ਗੂਗਲ ਦੇ ਮਾਮਲੇ ਵਿੱਚ ਅਮਰੀਕਾ ਹੋਵੇਗਾ।

ਕੰਪਨੀਆਂ ਨੇ ਇਹ ਵੀ ਵਚਨਬੱਧਤਾ ਕੀਤੀ ਕਿ ਉਹ ਆਪਣੇ AI ਮਾਡਲਾਂ ਦੇ ਜੋਖਮਾਂ ਦਾ ਮੁਲਾਂਕਣ ਕਰਨ ਦੀ ਪ੍ਰਕਿਰਿਆ ਵਿੱਚ ਬਾਹਰੀ ਅਦਾਕਾਰਾਂ, ਜਿਵੇਂ ਕਿ ਸਰਕਾਰਾਂ, ਸਿਵਲ ਸੁਸਾਇਟੀ, ਅਕਾਦਮਿਕ ਅਤੇ ਜਨਤਾ ਨੂੰ ਕਿਵੇਂ ਸ਼ਾਮਲ ਕੀਤਾ ਜਾਂਦਾ ਹੈ, ਇਸ ਬਾਰੇ ਦੱਸਣ ਲਈ। ਗੂਗਲ ਦੀ ਇਸ ਬਾਰੇ ਸਿੱਧੇ ਸਵਾਲਾਂ ਦੇ ਜਵਾਬ ਦੇਣ ਵਿੱਚ ਅਸਫਲਤਾ ਕਿ ਉਸਨੇ Gemini 2.5 Pro ਨੂੰ ਯੂ.ਐੱਸ. ਜਾਂ ਯੂ.ਕੇ. ਸਰਕਾਰੀ ਮੁਲਾਂਕਣਕਰਤਾਵਾਂ ਨੂੰ ਸੌਂਪਿਆ ਹੈ, ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਇਸ ਵਚਨਬੱਧਤਾ ਦੀ ਉਲੰਘਣਾ ਕਰਦਾ ਹੈ।

ਪਾਰਦਰਸ਼ਤਾ ‘ਤੇ ਤੈਨਾਤੀ ਨੂੰ ਤਰਜੀਹ ਦੇਣਾ

ਸੁਰੱਖਿਆ ਰਿਪੋਰਟ ਦੀ ਅਣਹੋਂਦ ਨੇ ਇਹ ਚਿੰਤਾਵਾਂ ਵਧਾ ਦਿੱਤੀਆਂ ਹਨ ਕਿ ਗੂਗਲ ਸ਼ਾਇਦ ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਪੂਰੇ ਸੁਰੱਖਿਆ ਮੁਲਾਂਕਣਾਂ ‘ਤੇ ਤੇਜ਼ੀ ਨਾਲ ਤੈਨਾਤੀ ਨੂੰ ਤਰਜੀਹ ਦੇ ਰਿਹਾ ਹੈ। ਆਕਸਫੋਰਡ ਇੰਟਰਨੈਟ ਇੰਸਟੀਚਿਊਟ ਵਿੱਚ ਇੱਕ ਪ੍ਰੋਫੈਸਰ ਅਤੇ ਸੀਨੀਅਰ ਖੋਜਕਰਤਾ ਸੈਂਡਰਾ ਵਾਚਟਰ ਨੇ ਜ਼ਿੰਮੇਵਾਰ ਖੋਜ ਅਤੇ ਨਵੀਨਤਾ ਵਿੱਚ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਮਹੱਤਤਾ ‘ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ। ਉਸਨੇ ਦੂਜੇ ਉਦਯੋਗਾਂ ਨਾਲ ਸਮਾਨਤਾ ਖਿੱਚੀ, ਕਿਹਾ ਕਿ “ਜੇ ਇਹ ਇੱਕ ਕਾਰ ਜਾਂ ਇੱਕ ਜਹਾਜ਼ ਹੁੰਦਾ, ਤਾਂ ਅਸੀਂ ਇਹ ਨਹੀਂ ਕਹਾਂਗੇ: ਆਓ ਇਸਨੂੰ ਜਲਦੀ ਤੋਂ ਜਲਦੀ ਮਾਰਕੀਟ ਵਿੱਚ ਲਿਆਉਂਦੇ ਹਾਂ ਅਤੇ ਅਸੀਂ ਬਾਅਦ ਵਿੱਚ ਸੁਰੱਖਿਆ ਪਹਿਲੂਆਂ ਦੀ ਜਾਂਚ ਕਰਾਂਗੇ।” ਵਾਚਟਰ ਨੇ ਚਿੰਤਾ ਜ਼ਾਹਰ ਕੀਤੀ ਕਿ ਜਨਰੇਟਿਵ AI ਖੇਤਰ ਦੇ ਅੰਦਰ ਇੱਕ ਪ੍ਰਚਲਿਤ ਰਵੱਈਆ ਹੈ ਕਿ “ਇਸਨੂੰ ਉੱਥੇ ਰੱਖਣਾ ਅਤੇ ਚਿੰਤਾ ਕਰਨਾ, ਜਾਂਚ ਕਰਨਾ ਅਤੇ ਬਾਅਦ ਵਿੱਚ ਇਸਦੇ ਮੁੱਦਿਆਂ ਨੂੰ ਠੀਕ ਕਰਨਾ।”

ਸਿਆਸੀ ਤਬਦੀਲੀਆਂ ਅਤੇ ਪ੍ਰਤੀਯੋਗੀ ਦਬਾਅ

ਹਾਲ ਹੀ ਦੀਆਂ ਰਾਜਨੀਤਿਕ ਤਬਦੀਲੀਆਂ, ਵੱਡੀਆਂ ਤਕਨੀਕੀ ਕੰਪਨੀਆਂ ਵਿੱਚ ਵੱਧ ਰਹੀ ਦੁਸ਼ਮਣੀ ਦੇ ਨਾਲ ਮਿਲ ਕੇ, AI ਮਾਡਲਾਂ ਨੂੰ ਤੈਨਾਤ ਕਰਨ ਲਈ ਕੰਪਨੀਆਂ ਦੀ ਦੌੜ ਵਿੱਚ ਪਿਛਲੀਆਂ ਸੁਰੱਖਿਆ ਵਚਨਬੱਧਤਾਵਾਂ ਤੋਂ ਦੂਰ ਜਾਣ ਵਿੱਚ ਯੋਗਦਾਨ ਪਾ ਸਕਦੀਆਂ ਹਨ। ਵਾਚਟਰ ਨੇ ਨੋਟ ਕੀਤਾ ਕਿ “ਇਹਨਾਂ ਕੰਪਨੀਆਂ ‘ਤੇ ਤੇਜ਼ ਹੋਣ, ਤੇਜ਼ ਹੋਣ, ਪਹਿਲੇ ਹੋਣ, ਸਭ ਤੋਂ ਵਧੀਆ ਹੋਣ, ਪ੍ਰਮੁੱਖ ਹੋਣ ਦਾ ਦਬਾਅ ਪਹਿਲਾਂ ਨਾਲੋਂ ਜ਼ਿਆਦਾ ਪ੍ਰਚਲਿਤ ਹੈ,” ਉਸਨੇ ਅੱਗੇ ਕਿਹਾ ਕਿ ਉਦਯੋਗ ਵਿੱਚ ਸੁਰੱਖਿਆ ਮਾਪਦੰਡ ਘੱਟ ਰਹੇ ਹਨ।

ਇਹ ਸਲਿੱਪਿੰਗ ਮਾਪਦੰਡ ਤਕਨੀਕੀ ਦੇਸ਼ਾਂ ਅਤੇ ਕੁਝ ਸਰਕਾਰਾਂ ਵਿੱਚ ਵੱਧ ਰਹੀ ਚਿੰਤਾ ਦੁਆਰਾ ਚਲਾਏ ਜਾ ਸਕਦੇ ਹਨ ਕਿ AI ਸੁਰੱਖਿਆ ਪ੍ਰਕਿਰਿਆਵਾਂ ਨਵੀਨਤਾ ਵਿੱਚ ਰੁਕਾਵਟ ਪਾ ਰਹੀਆਂ ਹਨ। ਅਮਰੀਕਾ ਵਿੱਚ, ਟਰੰਪ ਪ੍ਰਸ਼ਾਸਨ ਨੇ ਬਿਡੇਨ ਪ੍ਰਸ਼ਾਸਨ ਦੇ ਮੁਕਾਬਲੇ AI ਨਿਯਮਾਂ ਲਈ ਘੱਟ ਸਖਤ ਪਹੁੰਚ ਅਪਣਾਉਣ ਦਾ ਆਪਣਾ ਇਰਾਦਾ ਦਰਸਾਇਆ ਹੈ। ਨਵੇਂ ਪ੍ਰਸ਼ਾਸਨ ਨੇ ਪਹਿਲਾਂ ਹੀ AI ‘ਤੇ ਬਿਡੇਨ-ਯੁੱਗ ਦੇ ਕਾਰਜਕਾਰੀ ਆਦੇਸ਼ ਨੂੰ ਰੱਦ ਕਰ ਦਿੱਤਾ ਹੈ ਅਤੇ ਤਕਨੀਕੀ ਨੇਤਾਵਾਂ ਨਾਲ ਨਜ਼ਦੀਕੀ ਸਬੰਧ ਬਣਾ ਰਿਹਾ ਹੈ। ਪੈਰਿਸ ਵਿੱਚ ਹਾਲ ਹੀ ਵਿੱਚ ਹੋਏ AI ਸੰਮੇਲਨ ਵਿੱਚ, ਅਮਰੀਕੀ ਉਪ-ਰਾਸ਼ਟਰਪਤੀ ਜੇਡੀ ਵੈਂਸ ਨੇ ਕਿਹਾ ਕਿ ਸੁਰੱਖਿਆ ‘ਤੇ “ਵਿਕਾਸ-ਪੱਖੀ AI ਨੀਤੀਆਂ” ਨੂੰ ਤਰਜੀਹ ਦਿੱਤੀ ਜਾਣੀ ਚਾਹੀਦੀ ਹੈ, ਅਤੇ ਇਹ ਕਿ AI “ਇੱਕ ਮੌਕਾ ਹੈ ਜਿਸਨੂੰ ਟਰੰਪ ਪ੍ਰਸ਼ਾਸਨ ਬਰਬਾਦ ਨਹੀਂ ਕਰੇਗਾ।”

ਉਸੇ ਸੰਮੇਲਨ ਵਿੱਚ, ਯੂਕੇ ਅਤੇ ਅਮਰੀਕਾ ਦੋਵਾਂ ਨੇ ਨਕਲੀ ਬੁੱਧੀ ‘ਤੇ ਇੱਕ ਅੰਤਰਰਾਸ਼ਟਰੀ ਸਮਝੌਤੇ ‘ਤੇ ਹਸਤਾਖਰ ਕਰਨ ਤੋਂ ਇਨਕਾਰ ਕਰ ਦਿੱਤਾ ਜਿਸ ਨੇ ਤਕਨਾਲੋਜੀ ਦੇ ਵਿਕਾਸ ਲਈ ਇੱਕ “ਖੁੱਲੀ”, “ਸਮਾਵੇਸ਼ੀ” ਅਤੇ “ਨੈਤਿਕ” ਪਹੁੰਚ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕੀਤਾ।

ਸਪੱਸ਼ਟ ਪਾਰਦਰਸ਼ਤਾ ਲੋੜਾਂ ਦੀ ਲੋੜ

ਬੈਂਕਸਟਨ ਨੇ ਜ਼ੋਰ ਦੇ ਕੇ ਕਿਹਾ ਕਿ “ਜੇਕਰ ਅਸੀਂ ਨਵੇਂ ਮਾਡਲਾਂ ਨੂੰ ਜਾਰੀ ਕਰਦੇ ਸਮੇਂ ਇਹਨਾਂ ਕੰਪਨੀਆਂ ‘ਤੇ ਆਪਣੀਆਂ ਸਭ ਤੋਂ ਬੁਨਿਆਦੀ ਸੁਰੱਖਿਆ ਅਤੇ ਪਾਰਦਰਸ਼ਤਾ ਵਚਨਬੱਧਤਾਵਾਂ ਨੂੰ ਵੀ ਪੂਰਾ ਕਰਨ ਲਈ ਭਰੋਸਾ ਨਹੀਂ ਕਰ ਸਕਦੇ - ਵਚਨਬੱਧਤਾਵਾਂ ਜੋ ਉਹਨਾਂ ਨੇ ਖੁਦ ਸਵੈ-ਇੱਛਾ ਨਾਲ ਕੀਤੀਆਂ ਹਨ - ਤਾਂ ਉਹ ਸਪੱਸ਼ਟ ਤੌਰ ‘ਤੇ ਇਸ ਖੇਤਰ ‘ਤੇ ਹਾਵੀ ਹੋਣ ਦੀ ਆਪਣੀ ਪ੍ਰਤੀਯੋਗੀ ਦੌੜ ਵਿੱਚ ਬਹੁਤ ਤੇਜ਼ੀ ਨਾਲ ਮਾਡਲ ਜਾਰੀ ਕਰ ਰਹੇ ਹਨ।” ਉਨ੍ਹਾਂ ਨੇ ਅੱਗੇ ਕਿਹਾ ਕਿ ਜਿਵੇਂ ਕਿ AI ਡਿਵੈਲਪਰ ਇਨ੍ਹਾਂ ਵਚਨਬੱਧਤਾਵਾਂ ਵਿੱਚ ਲਗਾਤਾਰ ਝਿਜਕਦੇ ਹਨ, ਇਹ ਵਿਧਾਇਕਾਂ ‘ਤੇ ਨਿਰਭਰ ਕਰੇਗਾ ਕਿ ਉਹ ਸਪੱਸ਼ਟ ਪਾਰਦਰਸ਼ਤਾ ਲੋੜਾਂ ਨੂੰ ਵਿਕਸਤ ਅਤੇ ਲਾਗੂ ਕਰਨ ਜੋ ਕੰਪਨੀਆਂ ਟਾਲ ਨਹੀਂ ਸਕਦੀਆਂ।

AI ਗਵਰਨੈਂਸ ਲਈ ਵਿਆਪਕ ਪ੍ਰਭਾਵ

ਗੂਗਲ ਦੇ Gemini 2.5 Pro ਅਤੇ ਗਾਇਬ ਸੁਰੱਖਿਆ ਰਿਪੋਰਟ ਦੇ ਆਲੇ ਦੁਆਲੇ ਦਾ ਵਿਵਾਦ ਮਜ਼ਬੂਤ AI ਗਵਰਨੈਂਸ ਢਾਂਚੇ ਦੀ ਨਾਜ਼ੁਕ ਲੋੜ ਨੂੰ ਉਜਾਗਰ ਕਰਦਾ ਹੈ। ਇਹ ਢਾਂਚੇ ਮੁੱਖ ਮੁੱਦਿਆਂ ਨੂੰ ਹੱਲ ਕਰਨੇ ਚਾਹੀਦੇ ਹਨ ਜਿਵੇਂ ਕਿ:

  • ਪਾਰਦਰਸ਼ਤਾ: ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਕਿ AI ਡਿਵੈਲਪਰ ਆਪਣੇ ਮਾਡਲਾਂ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ, ਸੀਮਾਵਾਂ ਅਤੇ ਸੰਭਾਵੀ ਜੋਖਮਾਂ ਬਾਰੇ ਪਾਰਦਰਸ਼ੀ ਹਨ।
  • ਜਵਾਬਦੇਹੀ: AI ਪ੍ਰਣਾਲੀਆਂ ਦੇ ਵਿਕਾਸ ਅਤੇ ਤੈਨਾਤੀ ਲਈ ਜਵਾਬਦੇਹੀ ਦੀਆਂ ਸਪੱਸ਼ਟ ਲਾਈਨਾਂ ਸਥਾਪਤ ਕਰਨਾ।
  • ਸੁਰੱਖਿਆ: ਨੁਕਸਾਨ ਦੇ ਜੋਖਮ ਨੂੰ ਘੱਟ ਤੋਂ ਘੱਟ ਕਰਨ ਲਈ ਸਖਤ ਸੁਰੱਖਿਆ ਜਾਂਚ ਅਤੇ ਮੁਲਾਂਕਣ ਪ੍ਰਕਿਰਿਆਵਾਂ ਨੂੰ ਲਾਗੂ ਕਰਨਾ।
  • ਨੈਤਿਕ ਵਿਚਾਰ: AI ਪ੍ਰਣਾਲੀਆਂ ਦੇ ਡਿਜ਼ਾਈਨ ਅਤੇ ਵਿਕਾਸ ਵਿੱਚ ਨੈਤਿਕ ਸਿਧਾਂਤਾਂ ਨੂੰ ਏਕੀਕ੍ਰਿਤ ਕਰਨਾ।
  • ਜਨਤਕ ਸ਼ਮੂਲੀਅਤ: AI ਅਤੇ ਇਸਦੇ ਪ੍ਰਭਾਵਾਂ ਦੀ ਵਿਆਪਕ ਸਮਝ ਨੂੰ ਵਧਾਉਣ ਲਈ ਜਨਤਾ ਨਾਲ ਜੁੜਨਾ।
  • ਅੰਤਰਰਾਸ਼ਟਰੀ ਸਹਿਯੋਗ: AI ਗਵਰਨੈਂਸ ਲਈ ਆਮ ਮਾਪਦੰਡਾਂ ਅਤੇ ਵਧੀਆ ਅਭਿਆਸਾਂ ਨੂੰ ਵਿਕਸਤ ਕਰਨ ਲਈ ਅੰਤਰਰਾਸ਼ਟਰੀ ਪੱਧਰ ‘ਤੇ ਸਹਿਯੋਗ ਕਰਨਾ।

Gemini 2.5 Pro ਦੇ ਆਲੇ ਦੁਆਲੇ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਘਾਟ AI ਗਵਰਨੈਂਸ ਦੇ ਇਹਨਾਂ ਮਹੱਤਵਪੂਰਨ ਪਹਿਲੂਆਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਨ ਦੇ ਸੰਭਾਵੀ ਨਤੀਜਿਆਂ ਨੂੰ ਉਜਾਗਰ ਕਰਦੀ ਹੈ। ਢੁਕਵੀਂ ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਜਵਾਬਦੇਹੀ ਤੋਂ ਬਿਨਾਂ, AI ਪ੍ਰਣਾਲੀਆਂ ਦੇ ਅਸਲ ਪ੍ਰਭਾਵ ਦਾ ਮੁਲਾਂਕਣ ਕਰਨਾ ਅਤੇ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਮੁਸ਼ਕਲ ਹੋ ਜਾਂਦਾ ਹੈ ਕਿ ਉਹਨਾਂ ਨੂੰ ਜ਼ਿੰਮੇਵਾਰ ਅਤੇ ਨੈਤਿਕ ਢੰਗ ਨਾਲ ਵਿਕਸਤ ਅਤੇ ਤੈਨਾਤ ਕੀਤਾ ਗਿਆ ਹੈ।

ਅੱਗੇ ਵਧਣਾ: ਵੱਡੀ ਜ਼ਿੰਮੇਵਾਰੀ ਲਈ ਇੱਕ ਸੱਦਾ

AI ਉਦਯੋਗ ਇੱਕ ਨਾਜ਼ੁਕ ਮੋੜ ‘ਤੇ ਹੈ। ਜਿਵੇਂ ਕਿ AI ਤਕਨਾਲੋਜੀਆਂ ਤੇਜ਼ੀ ਨਾਲ ਸ਼ਕਤੀਸ਼ਾਲੀ ਅਤੇ ਵਿਆਪਕ ਹੁੰਦੀਆਂ ਜਾ ਰਹੀਆਂ ਹਨ, ਇਹ ਜ਼ਰੂਰੀ ਹੈ ਕਿ ਡਿਵੈਲਪਰ ਸੁਰੱਖਿਆ, ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਨੈਤਿਕ ਵਿਚਾਰਾਂ ਨੂੰ ਤਰਜੀਹ ਦੇਣ। Gemini 2.5 Pro ਦੇ ਆਲੇ ਦੁਆਲੇ ਦਾ ਵਿਵਾਦ ਇੱਕ ਯਾਦ ਦਿਵਾਉਂਦਾ ਹੈ ਕਿ ਸਵੈ-ਇੱਛਤ ਵਚਨਬੱਧਤਾਵਾਂ ਹਮੇਸ਼ਾ ਕਾਫ਼ੀ ਨਹੀਂ ਹੁੰਦੀਆਂ ਹਨ। ਸਰਕਾਰਾਂ ਅਤੇ ਰੈਗੂਲੇਟਰੀ ਸੰਸਥਾਵਾਂ ਨੂੰ ਸਪੱਸ਼ਟ ਮਾਪਦੰਡ ਸਥਾਪਤ ਕਰਨ ਅਤੇ ਪਾਲਣਾ ਨੂੰ ਲਾਗੂ ਕਰਨ ਵਿੱਚ ਵਧੇਰੇ ਸਰਗਰਮ ਭੂਮਿਕਾ ਨਿਭਾਉਣੀ ਚਾਹੀਦੀ ਹੈ।

ਇਸ ਤੋਂ ਇਲਾਵਾ, AI ਡਿਵੈਲਪਰਾਂ ਲਈ ਜਨਤਾ ਨਾਲ ਜੁੜਨਾ ਅਤੇ AI ਅਤੇ ਇਸਦੇ ਪ੍ਰਭਾਵਾਂ ਦੀ ਵਿਆਪਕ ਸਮਝ ਨੂੰ ਵਧਾਉਣਾ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਇਸ ਵਿੱਚ AI ਪ੍ਰਣਾਲੀਆਂ ਦੀਆਂ ਸੀਮਾਵਾਂ ਅਤੇ ਸੰਭਾਵੀ ਜੋਖਮਾਂ ਬਾਰੇ ਪਾਰਦਰਸ਼ੀ ਹੋਣਾ ਸ਼ਾਮਲ ਹੈ, ਨਾਲ ਹੀ ਉਹਨਾਂ ਜੋਖਮਾਂ ਨੂੰ ਘੱਟ ਕਰਨ ਲਈ ਚੁੱਕੇ ਜਾ ਰਹੇ ਕਦਮ ਵੀ ਸ਼ਾਮਲ ਹਨ। ਇਕੱਠੇ ਕੰਮ ਕਰਕੇ, AI ਉਦਯੋਗ, ਸਰਕਾਰਾਂ ਅਤੇ ਜਨਤਾ ਇਹ ਯਕੀਨੀ ਬਣਾ ਸਕਦੇ ਹਨ ਕਿ AI ਤਕਨਾਲੋਜੀਆਂ ਨੂੰ ਇਸ ਤਰੀਕੇ ਨਾਲ ਵਿਕਸਤ ਅਤੇ ਤੈਨਾਤ ਕੀਤਾ ਜਾਵੇ ਜੋ ਸਮੁੱਚੇ ਤੌਰ ‘ਤੇ ਸਮਾਜ ਨੂੰ ਲਾਭ ਪਹੁੰਚਾਵੇ।