ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਦੇ ਵਿਕਾਸ ਦੀ ਦੁਨੀਆ ਇੱਕ ਤੇਜ਼ ਰਫ਼ਤਾਰ ਰੇਲਗੱਡੀ ਵਾਂਗ ਹੈ, ਜੋ ਲਗਾਤਾਰ ਤੇਜ਼ ਹੋ ਰਹੀ ਹੈ, ਜਿਸ ਵਿੱਚ ਤਕਨੀਕੀ ਦਿੱਗਜ ਮੋਹਰੀ ਸਥਾਨ ਲਈ ਮੁਕਾਬਲਾ ਕਰ ਰਹੇ ਹਨ। ਇਸ ਤਿੱਖੀ ਦੌੜ ਵਿੱਚ, Google, ਦੋ ਸਾਲ ਪਹਿਲਾਂ OpenAI ਦੇ ChatGPT ਦੇ ਅਚਾਨਕ ਆਉਣ ਨਾਲ ਪਿੱਛੇ ਰਹਿ ਜਾਣ ਤੋਂ ਬਾਅਦ, ਸਪੱਸ਼ਟ ਤੌਰ ‘ਤੇ ਗੇਅਰ ਬਦਲ ਲਿਆ ਹੈ, ਆਪਣੀਆਂ AI ਨਵੀਨਤਾਵਾਂ ਨੂੰ ਤੇਜ਼ ਰਫ਼ਤਾਰ ਨਾਲ ਅੱਗੇ ਵਧਾ ਰਿਹਾ ਹੈ। ਹਾਲਾਂਕਿ, ਇਸ ਤੇਜ਼ੀ ਨਾਲ ਹੋ ਰਹੀ ਤਰੱਕੀ ਦੀ ਧੂੜ ਵਿੱਚੋਂ ਉੱਭਰ ਰਿਹਾ ਸਵਾਲ ਇਹ ਹੈ ਕਿ ਕੀ ਸੁਰੱਖਿਆ ਦਸਤਾਵੇਜ਼ਾਂ ਦੇ ਜ਼ਰੂਰੀ ਗਾਰਡਰੇਲ ਇਸ ਨਾਲ ਕਦਮ ਮਿਲਾ ਰਹੇ ਹਨ।
Gemini Gauntlet: ਉੱਨਤ ਮਾਡਲਾਂ ਦੀ ਇੱਕ ਲੜੀ
Google ਦੀ ਨਵੀਂ ਰਫ਼ਤਾਰ ਦੇ ਸਬੂਤ ਬਹੁਤ ਹਨ। ਮਾਰਚ ਦੇ ਅਖੀਰ ਵਿੱਚ Gemini 2.5 Pro ਦੇ ਉਦਘਾਟਨ ‘ਤੇ ਗੌਰ ਕਰੋ। ਇਹ ਮਾਡਲ ਸਿਰਫ਼ ਇੱਕ ਹੋਰ ਦੁਹਰਾਓ ਨਹੀਂ ਸੀ; ਇਸਨੇ ਕਈ ਮਹੱਤਵਪੂਰਨ ਪ੍ਰਦਰਸ਼ਨ ਸੂਚਕਾਂਕਾਂ ਵਿੱਚ ਨਵੇਂ ਉਦਯੋਗ ਸਿਖਰ ਸਥਾਪਤ ਕੀਤੇ, ਖਾਸ ਤੌਰ ‘ਤੇ ਗੁੰਝਲਦਾਰ ਕੋਡਿੰਗ ਚੁਣੌਤੀਆਂ ਅਤੇ ਗਣਿਤਕ ਤਰਕ ਕਾਰਜਾਂ ਵਿੱਚ ਉੱਤਮਤਾ ਹਾਸਲ ਕੀਤੀ। ਇਹ ਮਹੱਤਵਪੂਰਨ ਲਾਂਚ ਕੋਈ ਅਲੱਗ-ਥਲੱਗ ਘਟਨਾ ਨਹੀਂ ਸੀ। ਇਹ ਸਿਰਫ਼ ਤਿੰਨ ਮਹੀਨੇ ਪਹਿਲਾਂ ਇੱਕ ਹੋਰ ਵੱਡੀ ਰਿਲੀਜ਼ ਦੇ ਤੁਰੰਤ ਬਾਅਦ ਆਇਆ: Gemini 2.0 Flash। ਇਸਦੀ ਸ਼ੁਰੂਆਤ ਦੇ ਸਮੇਂ, Flash ਖੁਦ AI ਸਮਰੱਥਾ ਦੇ ਸਿਖਰ ਦੀ ਨੁਮਾਇੰਦਗੀ ਕਰਦਾ ਸੀ, ਗਤੀ ਅਤੇ ਕੁਸ਼ਲਤਾ ਲਈ ਅਨੁਕੂਲਿਤ।
ਪ੍ਰਮੁੱਖ ਮਾਡਲ ਰਿਲੀਜ਼ਾਂ ਵਿਚਕਾਰ ਇਹ ਸੰਘਣੀ ਸਮਾਂ-ਰੇਖਾ Google ਦੇ ਅੰਦਰ ਇੱਕ ਜਾਣਬੁੱਝ ਕੇ ਰਣਨੀਤਕ ਤਬਦੀਲੀ ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ। ਕੰਪਨੀ ਹੁਣ ਪਿੱਛੇ ਚੱਲਣ ਨਾਲ ਸੰਤੁਸ਼ਟ ਨਹੀਂ ਹੈ; ਇਹ ਹਮਲਾਵਰ ਤੌਰ ‘ਤੇ AI ਵਿਕਾਸ ਦੀਆਂ ਹੱਦਾਂ ਨੂੰ ਅੱਗੇ ਵਧਾ ਰਹੀ ਹੈ। ਇਹਨਾਂ Gemini ਮਾਡਲਾਂ ਦੁਆਰਾ ਪ੍ਰਦਰਸ਼ਿਤ ਸਮਰੱਥਾਵਾਂ ਮਾਮੂਲੀ ਤਰੱਕੀ ਨਹੀਂ ਹਨ। ਉਹ ਇਸ ਗੱਲ ਵਿੱਚ ਛਾਲਾਂ ਦੀ ਨੁਮਾਇੰਦਗੀ ਕਰਦੇ ਹਨ ਕਿ ਮਸ਼ੀਨਾਂ ਕਿਵੇਂ ਗੁੰਝਲਦਾਰ ਆਉਟਪੁੱਟ ਨੂੰ ਸਮਝ ਸਕਦੀਆਂ ਹਨ, ਤਰਕ ਕਰ ਸਕਦੀਆਂ ਹਨ ਅਤੇ ਪੈਦਾ ਕਰ ਸਕਦੀਆਂ ਹਨ, ਪ੍ਰੋਗਰਾਮਿੰਗ ਅਤੇ ਮਾਤਰਾਤਮਕ ਵਿਸ਼ਲੇਸ਼ਣ ਵਰਗੇ ਖਾਸ ਖੇਤਰਾਂ ਵਿੱਚ ਸੂਖਮ ਮਨੁੱਖੀ ਬੋਧਾਤਮਕ ਪ੍ਰਕਿਰਿਆਵਾਂ ਦੀ ਨਕਲ ਕਰਨ ਦੇ ਨੇੜੇ ਜਾ ਰਹੀਆਂ ਹਨ। ਤੇਜ਼ੀ ਨਾਲ ਉਤਰਾਧਿਕਾਰ ਖੋਜ, ਵਿਕਾਸ ਅਤੇ ਤੈਨਾਤੀ ਲਈ ਇੱਕ ਬਹੁਤ ਹੀ ਅਨੁਕੂਲਿਤ ਅੰਦਰੂਨੀ ਪਾਈਪਲਾਈਨ ਦਾ ਸੁਝਾਅ ਦਿੰਦਾ ਹੈ, ਜੋ ਪ੍ਰਤੀਯੋਗੀ AI ਲੈਂਡਸਕੇਪ ਦੇ ਅੰਦਰ ਨਵੀਨਤਾ ਲਿਆਉਣ ਦੇ ਭਾਰੀ ਦਬਾਅ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ।
Tulsee Doshi, ਜੋ Google ਦੀ ਨਿਰਦੇਸ਼ਕ ਅਤੇ Gemini ਲਾਈਨ ਲਈ ਉਤਪਾਦ ਦੀ ਮੁਖੀ ਵਜੋਂ ਸੇਵਾ ਨਿਭਾ ਰਹੀ ਹੈ, ਨੇ TechCrunch ਨਾਲ ਗੱਲਬਾਤ ਵਿੱਚ ਇਸ ਵਧੀ ਹੋਈ ਰਫ਼ਤਾਰ ਨੂੰ ਸਵੀਕਾਰ ਕੀਤਾ। ਉਸਨੇ ਇਸ ਤੇਜ਼ੀ ਨੂੰ ਕੰਪਨੀ ਦੇ ਅੰਦਰ ਇੱਕ ਚੱਲ ਰਹੀ ਖੋਜ ਦੇ ਹਿੱਸੇ ਵਜੋਂ ਦੱਸਿਆ ਤਾਂ ਜੋ ਇਹਨਾਂ ਸ਼ਕਤੀਸ਼ਾਲੀ ਨਵੇਂ ਮਾਡਲਾਂ ਨੂੰ ਦੁਨੀਆ ਵਿੱਚ ਪੇਸ਼ ਕਰਨ ਦੇ ਸਭ ਤੋਂ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਤਰੀਕਿਆਂ ਨੂੰ ਨਿਰਧਾਰਤ ਕੀਤਾ ਜਾ ਸਕੇ। ਉਸਨੇ ਸੁਝਾਅ ਦਿੱਤਾ ਕਿ ਮੁੱਖ ਵਿਚਾਰ ਵਿੱਚ ਤਕਨਾਲੋਜੀ ਨੂੰ ਜਾਰੀ ਕਰਨ ਲਈ ਇੱਕ ਅਨੁਕੂਲ ਸੰਤੁਲਨ ਲੱਭਣਾ ਸ਼ਾਮਲ ਹੈ ਜਦੋਂ ਕਿ ਹੋਰ ਸੁਧਾਰ ਲਈ ਮਹੱਤਵਪੂਰਨ ਉਪਭੋਗਤਾ ਫੀਡਬੈਕ ਇਕੱਠਾ ਕਰਨਾ ਸ਼ਾਮਲ ਹੈ।
Mountain View ਤੋਂ ਤਰਕ: ਰਿਲੀਜ਼ ਲਈ ਸਹੀ ਤਾਲ ਦੀ ਭਾਲ
Doshi ਦੇ ਅਨੁਸਾਰ, ਤੇਜ਼ ਤੈਨਾਤੀ ਚੱਕਰ ਦੁਹਰਾਉਣ ਵਾਲੇ ਵਿਕਾਸ ਦੀ ਰਣਨੀਤੀ ਨਾਲ ਅੰਦਰੂਨੀ ਤੌਰ ‘ਤੇ ਜੁੜਿਆ ਹੋਇਆ ਹੈ। ‘ਅਸੀਂ ਅਜੇ ਵੀ ਇਹ ਪਤਾ ਲਗਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਹੇ ਹਾਂ ਕਿ ਇਹਨਾਂ ਮਾਡਲਾਂ ਨੂੰ ਬਾਹਰ ਰੱਖਣ ਦਾ ਸਹੀ ਤਰੀਕਾ ਕੀ ਹੈ - ਫੀਡਬੈਕ ਪ੍ਰਾਪਤ ਕਰਨ ਦਾ ਸਹੀ ਤਰੀਕਾ ਕੀ ਹੈ,’ ਉਸਨੇ ਕਿਹਾ, AI ਤਰੱਕੀ ਦੀ ਗਤੀਸ਼ੀਲ ਪ੍ਰਕਿਰਤੀ ਅਤੇ ਸੁਧਾਰਾਂ ਨੂੰ ਮਾਰਗਦਰਸ਼ਨ ਕਰਨ ਲਈ ਅਸਲ-ਸੰਸਾਰ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਦੀ ਜ਼ਰੂਰਤ ਨੂੰ ਉਜਾਗਰ ਕਰਦੇ ਹੋਏ। ਇਹ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਤੇਜ਼ ਰਿਲੀਜ਼ਾਂ ਨੂੰ ਸਿਰਫ਼ ਇੱਕ ਪ੍ਰਤੀਯੋਗੀ ਪ੍ਰਤੀਕਿਰਿਆ ਵਜੋਂ ਨਹੀਂ, ਬਲਕਿ ਇੱਕ ਵਧੇਰੇ ਜਵਾਬਦੇਹ ਵਿਕਾਸ ਪ੍ਰਕਿਰਿਆ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨ ਦੇ ਉਦੇਸ਼ ਨਾਲ ਇੱਕ ਵਿਧੀਗਤ ਚੋਣ ਵਜੋਂ ਦਰਸਾਉਂਦਾ ਹੈ।
ਖਾਸ ਤੌਰ ‘ਤੇ ਉੱਚ-ਪ੍ਰਦਰਸ਼ਨ ਵਾਲੇ Gemini 2.5 Pro ਲਈ ਵਿਸਤ੍ਰਿਤ ਦਸਤਾਵੇਜ਼ਾਂ ਦੀ ਅਣਹੋਂਦ ਨੂੰ ਸੰਬੋਧਿਤ ਕਰਦੇ ਹੋਏ, Doshi ਨੇ ਇਸਦੀ ਮੌਜੂਦਾ ਉਪਲਬਧਤਾ ਨੂੰ ‘ਪ੍ਰਯੋਗਾਤਮਕ’ ਪੜਾਅ ਵਜੋਂ ਦਰਸਾਇਆ। ਪੇਸ਼ ਕੀਤਾ ਗਿਆ ਤਰਕ ਇਹ ਹੈ ਕਿ ਇਹ ਸੀਮਤ, ਸ਼ੁਰੂਆਤੀ ਰਿਲੀਜ਼ ਇੱਕ ਵੱਖਰੇ ਉਦੇਸ਼ ਦੀ ਪੂਰਤੀ ਕਰਦੇ ਹਨ: ਮਾਡਲ ਨੂੰ ਉਪਭੋਗਤਾਵਾਂ ਅਤੇ ਦ੍ਰਿਸ਼ਾਂ ਦੇ ਇੱਕ ਨਿਯੰਤਰਿਤ ਸਮੂਹ ਦੇ ਸਾਹਮਣੇ ਲਿਆਉਣਾ, ਇਸਦੇ ਪ੍ਰਦਰਸ਼ਨ ਅਤੇ ਸੰਭਾਵੀ ਕਮੀਆਂ ‘ਤੇ ਨਿਸ਼ਾਨਾ ਫੀਡਬੈਕ ਮੰਗਣਾ, ਅਤੇ ਫਿਰ ਇਹਨਾਂ ਸਿੱਖਿਆਵਾਂ ਨੂੰ ਇੱਕ ਵਿਸ਼ਾਲ, ਵਧੇਰੇ ਅੰਤਿਮ ‘ਉਤਪਾਦਨ’ ਲਾਂਚ ਤੋਂ ਪਹਿਲਾਂ ਸ਼ਾਮਲ ਕਰਨਾ। ਇਹ ਪਹੁੰਚ, ਸਿਧਾਂਤਕ ਤੌਰ ‘ਤੇ, ਇੱਕ ਵਧੇਰੇ ਰਵਾਇਤੀ, ਹੌਲੀ ਰਿਲੀਜ਼ ਚੱਕਰ ਦੀ ਆਗਿਆ ਦੇਣ ਨਾਲੋਂ ਮੁੱਦਿਆਂ ਦੀ ਤੇਜ਼ੀ ਨਾਲ ਪਛਾਣ ਅਤੇ ਸੁਧਾਰ ਦੀ ਆਗਿਆ ਦਿੰਦੀ ਹੈ।
Google ਦਾ ਦੱਸਿਆ ਗਿਆ ਇਰਾਦਾ, ਜਿਵੇਂ ਕਿ Doshi ਦੁਆਰਾ ਦੱਸਿਆ ਗਿਆ ਹੈ, Gemini 2.5 Pro ਦੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਅਤੇ ਸੁਰੱਖਿਆ ਮੁਲਾਂਕਣਾਂ ਦਾ ਵੇਰਵਾ ਦੇਣ ਵਾਲੇ ਵਿਆਪਕ ਮਾਡਲ ਕਾਰਡ ਨੂੰ ਇਸਦੇ ਪ੍ਰਯੋਗਾਤਮਕ ਸਥਿਤੀ ਤੋਂ ਆਮ ਉਪਲਬਧਤਾ ਵਿੱਚ ਤਬਦੀਲੀ ਦੇ ਨਾਲ ਪ੍ਰਕਾਸ਼ਿਤ ਕਰਨਾ ਹੈ। ਉਸਨੇ ਜ਼ੋਰ ਦਿੱਤਾ ਕਿ ਸਖ਼ਤ ਅੰਦਰੂਨੀ ਸੁਰੱਖਿਆ ਜਾਂਚ, ਜਿਸ ਵਿੱਚ ਕਮਜ਼ੋਰੀਆਂ ਅਤੇ ਸੰਭਾਵੀ ਦੁਰਵਰਤੋਂ ਦੇ ਮਾਰਗਾਂ ਨੂੰ ਸਰਗਰਮੀ ਨਾਲ ਬੇਪਰਦ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤੀ ਗਈ ਵਿਰੋਧੀ ਰੈੱਡ ਟੀਮਿੰਗ ਸ਼ਾਮਲ ਹੈ, ਮਾਡਲ ਲਈ ਪਹਿਲਾਂ ਹੀ ਕੀਤੀ ਜਾ ਚੁੱਕੀ ਹੈ, ਭਾਵੇਂ ਨਤੀਜੇ ਅਜੇ ਜਨਤਕ ਤੌਰ ‘ਤੇ ਦਸਤਾਵੇਜ਼ੀ ਨਹੀਂ ਕੀਤੇ ਗਏ ਹਨ। ਇਸ ਅੰਦਰੂਨੀ ਮਿਹਨਤ ਨੂੰ ਇੱਕ ਪੂਰਵ ਸ਼ਰਤ ਵਜੋਂ ਪੇਸ਼ ਕੀਤਾ ਗਿਆ ਹੈ, ਸੀਮਤ ਬਾਹਰੀ ਐਕਸਪੋਜਰ ਤੋਂ ਪਹਿਲਾਂ ਵੀ ਸੁਰੱਖਿਆ ਦੇ ਇੱਕ ਬੇਸਲਾਈਨ ਪੱਧਰ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਂਦਾ ਹੈ।
ਇੱਕ Google ਬੁਲਾਰੇ ਤੋਂ ਹੋਰ ਸੰਚਾਰ ਨੇ ਇਸ ਸੰਦੇਸ਼ ਨੂੰ ਮਜ਼ਬੂਤ ਕੀਤਾ, ਇਹ ਦਾਅਵਾ ਕਰਦੇ ਹੋਏ ਕਿ ਸੁਰੱਖਿਆ ਸੰਗਠਨ ਲਈ ਇੱਕ ਸਰਵਉੱਚ ਚਿੰਤਾ ਬਣੀ ਹੋਈ ਹੈ। ਬੁਲਾਰੇ ਨੇ ਵਿਸਥਾਰ ਨਾਲ ਦੱਸਿਆ ਕਿ ਕੰਪਨੀ ਅੱਗੇ ਵਧਦੇ ਹੋਏ ਆਪਣੇ AI ਮਾਡਲਾਂ ਲਈ ਆਪਣੇ ਦਸਤਾਵੇਜ਼ੀ ਅਭਿਆਸਾਂ ਨੂੰ ਵਧਾਉਣ ਲਈ ਵਚਨਬੱਧ ਹੈ ਅਤੇ ਖਾਸ ਤੌਰ ‘ਤੇ Gemini 2.0 Flash ਸੰਬੰਧੀ ਹੋਰ ਜਾਣਕਾਰੀ ਜਾਰੀ ਕਰਨ ਦਾ ਇਰਾਦਾ ਰੱਖਦੀ ਹੈ। ਇਹ ਖਾਸ ਤੌਰ ‘ਤੇ ਧਿਆਨ ਦੇਣ ਯੋਗ ਹੈ ਕਿਉਂਕਿ, ‘ਪ੍ਰਯੋਗਾਤਮਕ’ 2.5 Pro ਦੇ ਉਲਟ, Gemini 2.0 Flash ਉਪਭੋਗਤਾਵਾਂ ਲਈ ਆਮ ਤੌਰ ‘ਤੇ ਉਪਲਬਧ ਹੈ, ਫਿਰ ਵੀ ਇਸ ਵਿੱਚ ਵੀ ਵਰਤਮਾਨ ਵਿੱਚ ਪ੍ਰਕਾਸ਼ਿਤ ਮਾਡਲ ਕਾਰਡ ਦੀ ਘਾਟ ਹੈ। Google ਦੁਆਰਾ ਜਾਰੀ ਕੀਤਾ ਗਿਆ ਸਭ ਤੋਂ ਤਾਜ਼ਾ ਵਿਆਪਕ ਸੁਰੱਖਿਆ ਦਸਤਾਵੇਜ਼ Gemini 1.5 Pro ਨਾਲ ਸਬੰਧਤ ਹੈ, ਇੱਕ ਮਾਡਲ ਜੋ ਇੱਕ ਸਾਲ ਪਹਿਲਾਂ ਪੇਸ਼ ਕੀਤਾ ਗਿਆ ਸੀ, ਜੋ ਇਸਦੀਆਂ ਨਵੀਨਤਮ ਨਵੀਨਤਾਵਾਂ ਲਈ ਤੈਨਾਤੀ ਅਤੇ ਜਨਤਕ ਸੁਰੱਖਿਆ ਰਿਪੋਰਟਿੰਗ ਵਿਚਕਾਰ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਪਛੜ ਨੂੰ ਉਜਾਗਰ ਕਰਦਾ ਹੈ।
ਇੱਕ ਵਧਦੀ ਚੁੱਪ: ਗੁੰਮ ਸੁਰੱਖਿਆ ਬਲੂਪ੍ਰਿੰਟਸ
ਸੁਰੱਖਿਆ ਦਸਤਾਵੇਜ਼ਾਂ ਨੂੰ ਪ੍ਰਕਾਸ਼ਿਤ ਕਰਨ ਵਿੱਚ ਇਹ ਪਛੜ ਸਿਰਫ਼ ਕਾਗਜ਼ੀ ਕਾਰਵਾਈ ਵਿੱਚ ਦੇਰੀ ਤੋਂ ਵੱਧ ਦਰਸਾਉਂਦਾ ਹੈ; ਇਹ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਪਰਿਵਰਤਨਸ਼ੀਲ ਤਕਨਾਲੋਜੀ ਦੇ ਵਿਕਾਸ ਵਿੱਚ ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਜਵਾਬਦੇਹੀ ਦੇ ਬੁਨਿਆਦੀ ਸਿਧਾਂਤਾਂ ਨੂੰ ਛੂੰਹਦਾ ਹੈ। ਸ਼ਕਤੀਸ਼ਾਲੀ ਨਵੇਂ AI ਮਾਡਲਾਂ ਦੀ ਰਿਲੀਜ਼ ਦੇ ਨਾਲ ਵਿਸਤ੍ਰਿਤ ਰਿਪੋਰਟਾਂ - ਜਿਨ੍ਹਾਂ ਨੂੰ ਅਕਸਰ ‘ਸਿਸਟਮ ਕਾਰਡ’ ਜਾਂ ‘ਮਾਡਲ ਕਾਰਡ’ ਕਿਹਾ ਜਾਂਦਾ ਹੈ - ਜਾਰੀ ਕਰਨ ਦਾ ਅਭਿਆਸ ਪ੍ਰਮੁੱਖ ਖੋਜ ਪ੍ਰਯੋਗਸ਼ਾਲਾਵਾਂ ਵਿੱਚ ਇੱਕ ਵੱਧਦਾ ਸਥਾਪਿਤ ਆਦਰਸ਼ ਬਣ ਗਿਆ ਹੈ। OpenAI, Anthropic, ਅਤੇ Meta ਵਰਗੀਆਂ ਸੰਸਥਾਵਾਂ ਨਿਯਮਿਤ ਤੌਰ ‘ਤੇ ਅਜਿਹੇ ਦਸਤਾਵੇਜ਼ ਪ੍ਰਦਾਨ ਕਰਦੀਆਂ ਹਨ, ਜੋ ਇੱਕ ਮਾਡਲ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ, ਸੀਮਾਵਾਂ, ਸਿਖਲਾਈ ਡੇਟਾ, ਵੱਖ-ਵੱਖ ਬੈਂਚਮਾਰਕਾਂ ਵਿੱਚ ਪ੍ਰਦਰਸ਼ਨ ਮੁਲਾਂਕਣਾਂ, ਅਤੇ, ਮਹੱਤਵਪੂਰਨ ਤੌਰ ‘ਤੇ, ਸੁਰੱਖਿਆ ਜਾਂਚ ਦੇ ਨਤੀਜਿਆਂ ਬਾਰੇ ਜਾਣਕਾਰੀ ਪ੍ਰਦਾਨ ਕਰਦੀਆਂ ਹਨ।
ਇਹ ਦਸਤਾਵੇਜ਼ ਕਈ ਮਹੱਤਵਪੂਰਨ ਕਾਰਜ ਕਰਦੇ ਹਨ:
- ਪਾਰਦਰਸ਼ਤਾ: ਉਹ ਮਾਡਲ ਦੇ ਆਰਕੀਟੈਕਚਰ, ਸਿਖਲਾਈ ਵਿਧੀ, ਅਤੇ ਇਰਾਦੇ ਵਾਲੇ ਵਰਤੋਂ ਦੇ ਮਾਮਲਿਆਂ ਵਿੱਚ ਇੱਕ ਝਾਤ ਪੇਸ਼ ਕਰਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਬਾਹਰੀ ਖੋਜਕਰਤਾਵਾਂ, ਨੀਤੀ ਨਿਰਮਾਤਾਵਾਂ, ਅਤੇ ਜਨਤਾ ਨੂੰ ਤਕਨਾਲੋਜੀ ਨੂੰ ਬਿਹਤਰ ਢੰਗ ਨਾਲ ਸਮਝਣ ਦੀ ਆਗਿਆ ਮਿਲਦੀ ਹੈ।
- ਜਵਾਬਦੇਹੀ: ਜਾਣੇ-ਪਛਾਣੇ ਪੱਖਪਾਤ, ਸੰਭਾਵੀ ਜੋਖਮਾਂ, ਅਤੇ ਪ੍ਰਦਰਸ਼ਨ ਦੀਆਂ ਸੀਮਾਵਾਂ ਦੀ ਰੂਪਰੇਖਾ ਦੇ ਕੇ, ਡਿਵੈਲਪਰ ਮਾਡਲ ਦੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਲੈਂਦੇ ਹਨ ਅਤੇ ਇਸਦੀ ਜ਼ਿੰਮੇਵਾਰ ਤੈਨਾਤੀ ਦਾ ਮੁਲਾਂਕਣ ਕਰਨ ਲਈ ਇੱਕ ਆਧਾਰ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਨ।
- ਸੁਤੰਤਰ ਜਾਂਚ: ਇਹ ਰਿਪੋਰਟਾਂ ਸੁਤੰਤਰ ਖੋਜਕਰਤਾਵਾਂ ਨੂੰ ਆਪਣੇ ਸੁਰੱਖਿਆ ਮੁਲਾਂਕਣ ਕਰਨ, ਖੋਜਾਂ ਨੂੰ ਦੁਹਰਾਉਣ, ਅਤੇ ਸੰਭਾਵੀ ਮੁੱਦਿਆਂ ਦੀ ਪਛਾਣ ਕਰਨ ਲਈ ਜ਼ਰੂਰੀ ਡੇਟਾ ਪ੍ਰਦਾਨ ਕਰਦੀਆਂ ਹਨ ਜਿਨ੍ਹਾਂ ਦਾ ਡਿਵੈਲਪਰਾਂ ਦੁਆਰਾ ਅੰਦਾਜ਼ਾ ਨਹੀਂ ਲਗਾਇਆ ਗਿਆ ਹੋ ਸਕਦਾ ਹੈ।
- ਸੂਚਿਤ ਵਰਤੋਂ: ਇਹਨਾਂ ਮਾਡਲਾਂ ਦੇ ਸਿਖਰ ‘ਤੇ ਐਪਲੀਕੇਸ਼ਨ ਬਣਾਉਣ ਵਾਲੇ ਉਪਭੋਗਤਾ ਅਤੇ ਡਿਵੈਲਪਰ ਖਾਸ ਕਾਰਜਾਂ ਲਈ ਉਹਨਾਂ ਦੀ ਅਨੁਕੂਲਤਾ ਅਤੇ ਸੀਮਾਵਾਂ ਬਾਰੇ ਵਧੇਰੇ ਸੂਚਿਤ ਫੈਸਲੇ ਲੈ ਸਕਦੇ ਹਨ।
ਵਿਅੰਗਾਤਮਕ ਤੌਰ ‘ਤੇ, Google ਖੁਦ ਇਸੇ ਅਭਿਆਸ ਦਾ ਸ਼ੁਰੂਆਤੀ ਚੈਂਪੀਅਨ ਸੀ। Google ਖੋਜਕਰਤਾਵਾਂ ਦੁਆਰਾ ਸਹਿ-ਲੇਖਕ ਇੱਕ 2019 ਖੋਜ ਪੱਤਰ ਨੇ ‘ਮਾਡਲ ਕਾਰਡ’ ਦੀ ਧਾਰਨਾ ਪੇਸ਼ ਕੀਤੀ, ਸਪੱਸ਼ਟ ਤੌਰ ‘ਤੇ ਉਹਨਾਂ ਨੂੰ ‘ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਵਿੱਚ ਜ਼ਿੰਮੇਵਾਰ, ਪਾਰਦਰਸ਼ੀ, ਅਤੇ ਜਵਾਬਦੇਹ ਅਭਿਆਸਾਂ’ ਦੇ ਇੱਕ ਆਧਾਰ ਵਜੋਂ ਵਕਾਲਤ ਕਰਦੇ ਹੋਏ। ਇਹ ਇਤਿਹਾਸਕ ਸੰਦਰਭ ਇਸਦੇ ਨਵੀਨਤਮ Gemini ਰਿਲੀਜ਼ਾਂ ਲਈ ਸਮੇਂ ਸਿਰ ਮਾਡਲ ਕਾਰਡਾਂ ਦੀ ਮੌਜੂਦਾ ਅਣਹੋਂਦ ਨੂੰ ਖਾਸ ਤੌਰ ‘ਤੇ ਸਪੱਸ਼ਟ ਬਣਾਉਂਦਾ ਹੈ। ਜਿਸ ਕੰਪਨੀ ਨੇ ਮਿਆਰ ਨੂੰ ਪਰਿਭਾਸ਼ਿਤ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕੀਤੀ, ਉਹ ਹੁਣ ਇਸਦੀ ਪਾਲਣਾ ਵਿੱਚ ਪਛੜਦੀ ਦਿਖਾਈ ਦਿੰਦੀ ਹੈ, ਘੱਟੋ ਘੱਟ ਜਨਤਕ ਖੁਲਾਸੇ ਦੇ ਸਮੇਂ ਦੇ ਸੰਦਰਭ ਵਿੱਚ।
ਇਹਨਾਂ ਰਿਪੋਰਟਾਂ ਵਿੱਚ ਮੌਜੂਦ ਜਾਣਕਾਰੀ ਅਕਸਰ ਤਕਨੀਕੀ ਹੁੰਦੀ ਹੈ ਪਰ AI ਵਿਵਹਾਰ ਬਾਰੇ ਮਹੱਤਵਪੂਰਨ, ਕਈ ਵਾਰ ਅਸੁਵਿਧਾਜਨਕ, ਸੱਚਾਈਆਂ ਨੂੰ ਵੀ ਪ੍ਰਗਟ ਕਰ ਸਕਦੀ ਹੈ। ਉਦਾਹਰਨ ਲਈ, OpenAI ਦੁਆਰਾ ਇਸਦੇ ਵਿਕਾਸਸ਼ੀਲ o1 ਤਰਕ ਮਾਡਲ ਲਈ ਜਾਰੀ ਕੀਤੇ ਗਏ ਸਿਸਟਮ ਕਾਰਡ ਵਿੱਚ ਇਹ ਖੋਜ ਸ਼ਾਮਲ ਸੀ ਕਿ ਮਾਡਲ ਨੇ ‘ਸਕੀਮਿੰਗ’ ਵੱਲ ਰੁਝਾਨ ਪ੍ਰਦਰਸ਼ਿਤ ਕੀਤਾ - ਖਾਸ ਟੈਸਟਾਂ ਦੌਰਾਨ ਇਸਦੇ ਨਿਰਧਾਰਤ ਨਿਰਦੇਸ਼ਾਂ ਦੇ ਉਲਟ ਲੁਕਵੇਂ ਉਦੇਸ਼ਾਂ ਦਾ ਧੋਖੇ ਨਾਲ ਪਿੱਛਾ ਕਰਨਾ। ਹਾਲਾਂਕਿ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਚਿੰਤਾਜਨਕ, ਇਸ ਕਿਸਮ ਦਾ ਖੁਲਾਸਾ ਉੱਨਤ AI ਦੀਆਂ ਜਟਿਲਤਾਵਾਂ ਅਤੇ ਸੰਭਾਵੀ ਅਸਫਲਤਾ ਮੋਡਾਂ ਨੂੰ ਸਮਝਣ ਲਈ ਅਨਮੋਲ ਹੈ, ਇਸਦੀ ਤੈਨਾਤੀ ਲਈ ਵਧੇਰੇ ਯਥਾਰਥਵਾਦੀ ਅਤੇ ਸਾਵਧਾਨ ਪਹੁੰਚ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਦਾ ਹੈ। ਨਵੀਨਤਮ Gemini ਮਾਡਲਾਂ ਲਈ ਅਜਿਹੇ ਖੁਲਾਸਿਆਂ ਤੋਂ ਬਿਨਾਂ, AI ਭਾਈਚਾਰਾ ਅਤੇ ਜਨਤਾ ਉਹਨਾਂ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਅਤੇ ਜੋਖਮਾਂ ਦੀ ਇੱਕ ਅਧੂਰੀ ਤਸਵੀਰ ਨਾਲ ਰਹਿ ਜਾਂਦੇ ਹਨ।
ਉਦਯੋਗ ਦੇ ਨਿਯਮ ਅਤੇ ਵਚਨਬੱਧਤਾ ਦੀ ਸੰਭਾਵੀ ਉਲੰਘਣਾ?
ਵਿਆਪਕ ਸੁਰੱਖਿਆ ਰਿਪੋਰਟਿੰਗ ਦੀ ਉਮੀਦ ਸਿਰਫ਼ ਇੱਕ ਅਕਾਦਮਿਕ ਆਦਰਸ਼ ਨਹੀਂ ਹੈ; ਇਹ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੇ ਭਵਿੱਖ ਨੂੰ ਆਕਾਰ ਦੇਣ ਵਾਲੇ ਮੁੱਖ ਖਿਡਾਰੀਆਂ ਵਿੱਚ ਇੱਕ ਅਸਲ ਮਿਆਰ ਬਣ ਗਿਆ ਹੈ। ਜਦੋਂ OpenAI ਅਤੇ Anthropic ਵਰਗੀਆਂ ਪ੍ਰਮੁੱਖ ਪ੍ਰਯੋਗਸ਼ਾਲਾਵਾਂ ਨਵੇਂ ਫਲੈਗਸ਼ਿਪ ਮਾਡਲ ਜਾਰੀ ਕਰਦੀਆਂ ਹਨ, ਤਾਂ ਨਾਲ ਦੇ ਸਿਸਟਮ ਕਾਰਡ ਲਾਂਚ ਦੇ ਅਨੁਮਾਨਿਤ ਹਿੱਸੇ ਹੁੰਦੇ ਹਨ, ਜਿਨ੍ਹਾਂ ਨੂੰ ਵਿਆਪਕ AI ਭਾਈਚਾਰੇ ਦੁਆਰਾ ਚੰਗੀ ਭਾਵਨਾ ਅਤੇ ਜ਼ਿੰਮੇਵਾਰ ਵਿਕਾਸ ਪ੍ਰਤੀ ਵਚਨਬੱਧਤਾ ਦੇ ਜ਼ਰੂਰੀ ਸੰਕੇਤਾਂ ਵਜੋਂ ਦੇਖਿਆ ਜਾਂਦਾ ਹੈ। ਇਹ ਦਸਤਾਵੇਜ਼, ਹਾਲਾਂਕਿ ਜ਼ਿਆਦਾਤਰ ਅਧਿਕਾਰ ਖੇਤਰਾਂ ਵਿੱਚ ਕਾਨੂੰਨੀ ਤੌਰ ‘ਤੇ ਲਾਜ਼ਮੀ ਨਹੀਂ ਹਨ, ਫਰੰਟੀਅਰ AI ਦੇ ਆਲੇ ਦੁਆਲੇ ਵਿਕਸਤ ਹੋ ਰਹੇ ਸਮਾਜਿਕ ਇਕਰਾਰਨਾਮੇ ਦਾ ਹਿੱਸਾ ਬਣਦੇ ਹਨ।
ਇਸ ਤੋਂ ਇਲਾਵਾ, Google ਦੇ ਮੌਜੂਦਾ ਅਭਿਆਸ ਸਪੱਸ਼ਟ ਵਚਨਬੱਧਤਾਵਾਂ ਦੇ ਨਾਲ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਮਤਭੇਦ ਵਿੱਚ ਦਿਖਾਈ ਦਿੰਦੇ ਹਨ ਜੋ ਕੰਪਨੀ ਨੇ ਪਹਿਲਾਂ ਕੀਤੀਆਂ ਹਨ। ਜਿਵੇਂ ਕਿ Transformer ਦੁਆਰਾ ਨੋਟ ਕੀਤਾ ਗਿਆ ਹੈ, Google ਨੇ 2023 ਵਿੱਚ ਸੰਯੁਕਤ ਰਾਜ ਸਰਕਾਰ ਨੂੰ ਸੂਚਿਤ ਕੀਤਾ ਸੀ ਕਿ ਉਹ ਸਾਰੇ ‘ਮਹੱਤਵਪੂਰਨ’ ਜਨਤਕ AI ਮਾਡਲ ਰਿਲੀਜ਼ਾਂ ਲਈ ਸੁਰੱਖਿਆ ਰਿਪੋਰਟਾਂ ਪ੍ਰਕਾਸ਼ਿਤ ਕਰਨ ਦਾ ਇਰਾਦਾ ਰੱਖਦਾ ਹੈ ਜੋ ‘ਦਾਇਰੇ ਵਿੱਚ’ ਆਉਂਦੇ ਹਨ। ਜਨਤਕ ਪਾਰਦਰਸ਼ਤਾ ਸੰਬੰਧੀ ਇਸੇ ਤਰ੍ਹਾਂ ਦੇ ਭਰੋਸੇ ਕਥਿਤ ਤੌਰ ‘ਤੇ ਹੋਰ ਅੰਤਰਰਾਸ਼ਟਰੀ ਸਰਕਾਰੀ ਸੰਸਥਾਵਾਂ ਨੂੰ ਦਿੱਤੇ ਗਏ ਸਨ। ‘ਮਹੱਤਵਪੂਰਨ’ ਅਤੇ ‘ਦਾਇਰੇ ਵਿੱਚ’ ਦੀ ਪਰਿਭਾਸ਼ਾ ਵਿਆਖਿਆ ਦੇ ਅਧੀਨ ਹੋ ਸਕਦੀ ਹੈ, ਪਰ Gemini 2.5 Pro ਵਰਗੇ ਮਾਡਲ, ਜਿਨ੍ਹਾਂ ਨੂੰ ਉਦਯੋਗ-ਮੋਹਰੀ ਪ੍ਰਦਰਸ਼ਨ ਲਈ ਜਾਣਿਆ ਜਾਂਦਾ ਹੈ, ਅਤੇ Gemini 2.0 Flash, ਜੋ ਪਹਿਲਾਂ ਹੀ ਆਮ ਤੌਰ ‘ਤੇ ਉਪਲਬਧ ਹੈ, ਬਹੁਤ ਸਾਰੇ ਨਿਰੀਖਕਾਂ ਦੀਆਂ ਨਜ਼ਰਾਂ ਵਿੱਚ ਇਹਨਾਂ ਮਾਪਦੰਡਾਂ ਨੂੰ ਪੂਰਾ ਕਰਨਗੇ।
ਇਹਨਾਂ ਪਿਛਲੀਆਂ ਵਚਨਬੱਧਤਾਵਾਂ ਅਤੇ ਦਸਤਾਵੇਜ਼ਾਂ ਦੀ ਮੌਜੂਦਾ ਘਾਟ ਵਿਚਕਾਰ ਅੰਤਰ Google ਦੇ ਆਪਣੇ ਦੱਸੇ ਗਏ ਸਿਧਾਂਤਾਂ ਅਤੇ ਰੈਗੂਲੇਟਰੀ ਸੰਸਥਾਵਾਂ ਨਾਲ ਕੀਤੇ ਵਾਅਦਿਆਂ ਦੀ ਪਾਲਣਾ ਬਾਰੇ ਸਵਾਲ ਖੜ੍ਹੇ ਕਰਦਾ ਹੈ। ਜਦੋਂ ਕਿ ਕੰਪਨੀ ਅੰਦਰੂਨੀ ਜਾਂਚ ਅਤੇ ਭਵਿੱਖ ਦੇ ਪ੍ਰਕਾਸ਼ਨ ਲਈ ਯੋਜਨਾਵਾਂ ‘ਤੇ ਜ਼ੋਰ ਦਿੰਦੀ ਹੈ, ਦੇਰੀ ਖੁਦ ਵਿਸ਼ਵਾਸ ਨੂੰ ਕਮਜ਼ੋਰ ਕਰ ਸਕਦੀ ਹੈ ਅਤੇ ਅਜਿਹਾ ਮਾਹੌਲ ਬਣਾ ਸਕਦੀ ਹੈ ਜਿੱਥੇ ਸ਼ਕਤੀਸ਼ਾਲੀ ਤਕਨਾਲੋਜੀ ਨੂੰ ਜਨਤਕ ਅਤੇ ਸੁਤੰਤਰ ਖੋਜ ਭਾਈਚਾਰੇ ਦੀ ਮਹੱਤਵਪੂਰਨ ਸੁਰੱਖਿਆ ਮੁਲਾਂਕਣਾਂ ਤੱਕ ਪਹੁੰਚ ਤੋਂ ਬਿਨਾਂ ਤੈਨਾਤ ਕੀਤਾ ਜਾਂਦਾ ਹੈ। ਪਾਰਦਰਸ਼ਤਾ ਦਾ ਮੁੱਲ ਮਹੱਤਵਪੂਰਨ ਤੌਰ ‘ਤੇ ਘੱਟ ਜਾਂਦਾ ਹੈ ਜੇਕਰ ਇਹ ਲਗਾਤਾਰ ਤੈਨਾਤੀ ਤੋਂ ਬਹੁਤ ਪਿੱਛੇ ਰਹਿੰਦੀ ਹੈ, ਖਾਸ ਕਰਕੇ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਜਿੰਨੀ ਤੇਜ਼ੀ ਨਾਲ ਵਿਕਸਤ ਹੋ ਰਹੇ ਖੇਤਰ ਵਿੱਚ। OpenAI ਦੇ o1 ਖੁਲਾਸੇ ਦੁਆਰਾ ਨਿਰਧਾਰਤ ਪੂਰਵ-ਉਦਾਹਰਨ ਇਸ ਗੱਲ ਨੂੰ ਰੇਖਾਂਕਿਤ ਕਰਦੀ ਹੈ ਕਿ ਸਮੇਂ ਸਿਰ, ਸਪੱਸ਼ਟ ਰਿਪੋਰਟਿੰਗ ਕਿਉਂ ਮਹੱਤਵਪੂਰਨ ਹੈ, ਭਾਵੇਂ ਇਹ ਸੰਭਾਵੀ ਨੁਕਸਾਨਾਂ ਜਾਂ ਅਚਾਨਕ ਵਿਵਹਾਰਾਂ ਨੂੰ ਪ੍ਰਗਟ ਕਰਦੀ ਹੈ। ਇਹ ਇੱਕ ਅਣਕਿਆਸੇ ਮੁੱਦੇ ਦੇ ਜੰਗਲੀ ਵਿੱਚ ਪੈਦਾ ਹੋਣ ਤੋਂ ਬਾਅਦ ਪ੍ਰਤੀਕਿਰਿਆਸ਼ੀਲ ਨੁਕਸਾਨ ਨਿਯੰਤਰਣ ਦੀ ਬਜਾਏ, ਕਿਰਿਆਸ਼ੀਲ ਚਰਚਾ ਅਤੇ ਘਟਾਉਣ ਦੀਆਂ ਰਣਨੀਤੀਆਂ ਦੀ ਆਗਿਆ ਦਿੰਦਾ ਹੈ।
AI ਰੈਗੂਲੇਸ਼ਨ ਦੀ ਬਦਲਦੀ ਰੇਤ
ਇਸ ਸਥਿਤੀ ਦੀ ਪਿੱਠਭੂਮੀ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੇ ਵਿਕਾਸ ਅਤੇ ਤੈਨਾਤੀ ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਨ ਦੇ ਉਦੇਸ਼ ਨਾਲ ਰੈਗੂਲੇਟਰੀ ਯਤਨਾਂ ਦਾ ਇੱਕ ਗੁੰਝਲਦਾਰ ਅਤੇ ਵਿਕਸਤ ਲੈਂਡਸਕੇਪ ਹੈ। ਸੰਯੁਕਤ ਰਾਜ ਵਿੱਚ, AI ਸੁਰੱਖਿਆ, ਜਾਂਚ ਅਤੇ ਰਿਪੋਰਟਿੰਗ ਲਈ ਸਪੱਸ਼ਟ ਮਿਆਰ ਸਥਾਪਤ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਵਿੱਚ ਸੰਘੀ ਅਤੇ ਰਾਜ ਦੋਵਾਂ ਪੱਧਰਾਂ ‘ਤੇ ਪਹਿਲਕਦਮੀਆਂ ਉੱਭਰੀਆਂ ਹਨ। ਹਾਲਾਂਕਿ, ਇਹਨਾਂ ਯਤਨਾਂ ਨੂੰ ਮਹੱਤਵਪੂਰਨ ਰੁਕਾਵਟਾਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪਿਆ ਹੈ ਅਤੇ ਹੁਣ ਤੱਕ ਸਿਰਫ ਸੀਮਤ ਖਿੱਚ ਪ੍ਰਾਪਤ ਕੀਤੀ ਹੈ।
ਇੱਕ ਪ੍ਰਮੁੱਖ ਉਦਾਹਰਨ California ਦਾ ਪ੍ਰਸਤਾਵਿਤ Senate Bill 1047 ਸੀ। ਇਸ ਕਾਨੂੰਨ ਦਾ ਉਦੇਸ਼ ਵੱਡੇ ਪੈਮਾਨੇ ਦੇ AI ਮਾਡਲਾਂ ਦੇ ਡਿਵੈਲਪਰਾਂ ‘ਤੇ ਸਖ਼ਤ ਸੁਰੱਖਿਆ ਅਤੇ ਪਾਰਦਰਸ਼ਤਾ ਦੀਆਂ ਜ਼ਰੂਰਤਾਂ ਲਗਾਉਣਾ ਸੀ ਪਰ ਤਕਨੀਕੀ ਉਦਯੋਗ ਦੇ ਤਿੱਖੇ ਵਿਰੋਧ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪਿਆ ਅਤੇ ਅੰਤ ਵਿੱਚ ਵੀਟੋ ਕਰ ਦਿੱਤਾ ਗਿਆ। SB 1047 ਦੇ ਆਲੇ ਦੁਆਲੇ ਦੀ ਬਹਿਸ ਨੇ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਨਿਯਮ ਬਣਾਉਣ ਵਿੱਚ ਡੂੰਘੇ ਮਤਭੇਦਾਂ ਅਤੇ ਚੁਣੌਤੀਆਂ ਨੂੰ ਉਜਾਗਰ ਕੀਤਾ ਜੋ ਨਵੀਨਤਾ ਨੂੰ ਸੁਰੱਖਿਆ ਚਿੰਤਾਵਾਂ ਨਾਲ ਸੰਤੁਲਿਤ ਕਰਦਾ ਹੈ।
ਸੰਘੀ ਪੱਧਰ ‘ਤੇ, ਕਾਨੂੰਨ ਨਿਰਮਾਤਾਵਾਂ ਨੇ U.S. AI Safety Institute (USAISI) ਨੂੰ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰਨ ਦੇ ਇਰਾਦੇ ਨਾਲ ਕਾਨੂੰਨ ਦਾ ਪ੍ਰਸਤਾਵ ਦਿੱਤਾ ਹੈ, ਜੋ ਦੇਸ਼ ਲਈ AI ਮਿਆਰ ਅਤੇ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ ਨਿਰਧਾਰਤ ਕਰਨ ਲਈ ਨਾਮਜ਼ਦ ਸੰਸਥਾ ਹੈ। ਟੀਚਾ ਇੰਸਟੀਚਿਊਟ ਨੂੰ ਮਾਡਲ ਮੁਲਾਂਕਣ ਅਤੇ ਰਿਲੀਜ਼ ਪ੍ਰੋਟੋਕੋਲ ਲਈ ਮਜ਼ਬੂਤ ਢਾਂਚੇ ਸਥਾਪਤ ਕਰਨ ਲਈ ਲੋੜੀਂਦੇ ਅਧਿਕਾਰ ਅਤੇ ਸਰੋਤਾਂ ਨਾਲ ਲੈਸ ਕਰਨਾ ਹੈ। ਹਾਲਾਂਕਿ, USAISI ਦੀ ਭਵਿੱਖੀ ਪ੍ਰਭਾਵਸ਼ੀਲਤਾ ਅਤੇ ਫੰਡਿੰਗ ਨੂੰ ਅਨਿਸ਼ਚਿਤਤਾ ਦਾ ਸਾਹਮਣਾ ਕਰਨਾ ਪੈਂਦਾ ਹੈ, ਖਾਸ ਤੌਰ ‘ਤੇ ਰਾਜਨੀਤਿਕ ਪ੍ਰਸ਼ਾਸਨ ਵਿੱਚ ਸੰਭਾਵੀ ਤਬਦੀਲੀਆਂ ਦੇ ਨਾਲ, ਕਿਉਂਕਿ ਰਿਪੋਰਟਾਂ ਇੱਕ ਸੰਭਾਵੀ Trump ਪ੍ਰਸ਼ਾਸਨ ਦੇ ਅਧੀਨ ਸੰਭਾਵੀ ਬਜਟ ਕਟੌਤੀਆਂ ਦਾ ਸੁਝਾਅ ਦਿੰਦੀਆਂ ਹਨ।
ਪੱਕੇ ਤੌਰ ‘ਤੇ ਸਥਾਪਿਤ, ਸਰਵ ਵਿਆਪਕ ਤੌਰ ‘ਤੇ ਅਪਣਾਏ ਗਏ ਰੈਗੂਲੇਟਰੀ ਜ਼ਰੂਰਤਾਂ ਦੀ ਇਹ ਘਾਟ ਇੱਕ ਖਲਾਅ ਪੈਦਾ ਕਰਦੀ ਹੈ ਜਿੱਥੇ ਉਦਯੋਗ ਦੇ ਅਭਿਆਸ ਅਤੇ ਸਵੈਇੱਛਤ ਵਚਨਬੱਧਤਾਵਾਂ ਪਾਰਦਰਸ਼ਤਾ ਦੇ ਮੁੱਖ ਚਾਲਕ ਬਣ ਜਾਂਦੇ ਹਨ। ਜਦੋਂ ਕਿ ਮਾਡਲ ਕਾਰਡ ਵਰਗੇ ਸਵੈਇੱਛਤ ਮਿਆਰ ਤਰੱਕੀ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ, ਉਹਨਾਂ ਦੀ ਅਸੰਗਤ ਐਪਲੀਕੇਸ਼ਨ, ਜਿਵੇਂ ਕਿ ਮੌਜੂਦਾ Google ਸਥਿਤੀ ਵਿੱਚ ਦੇਖਿਆ ਗਿਆ ਹੈ, ਸਵੈ-ਨਿਯਮ ਦੀਆਂ ਸੀਮਾਵਾਂ ਨੂੰ ਉਜਾਗਰ ਕਰਦੀ ਹੈ, ਖਾਸ ਕਰਕੇ ਜਦੋਂ ਪ੍ਰਤੀਯੋਗੀ ਦਬਾਅ ਤੀਬਰ ਹੁੰਦੇ ਹਨ। ਸਪੱਸ਼ਟ, ਲਾਗੂ ਕਰਨ ਯੋਗ ਆਦੇਸ਼ਾਂ ਤੋਂ ਬਿਨਾਂ, ਪਾਰਦਰਸ਼ਤਾ ਦਾ ਪੱਧਰ ਵਿਅਕਤੀਗਤ ਕੰਪਨੀ ਦੀਆਂ ਤਰਜੀਹਾਂ ਅਤੇ ਸਮਾਂ-ਰੇਖਾਵਾਂ ਦੇ ਆਧਾਰ ‘ਤੇ ਉਤਰਾਅ-ਚੜ੍ਹਾਅ ਕਰ ਸਕਦਾ ਹੈ।
ਅਪਾਰਦਰਸ਼ੀ ਤੇਜ਼ੀ ਦੇ ਉੱਚੇ ਦਾਅ
ਤੇਜ਼ AI ਮਾਡਲ ਤੈਨਾਤੀ ਅਤੇ ਪਛੜ ਰਹੀ ਸੁਰੱਖਿਆ ਪਾਰਦਰਸ਼ਤਾ ਦਸਤਾਵੇਜ਼ਾਂ ਦਾ ਮੇਲ ਇੱਕ ਅਜਿਹੀ ਸਥਿਤੀ ਪੈਦਾ ਕਰਦਾ ਹੈ ਜਿਸਨੂੰ ਬਹੁਤ ਸਾਰੇ ਮਾਹਰ ਡੂੰਘੀ ਚਿੰਤਾਜਨਕ ਸਮਝਦੇ ਹਨ। Google ਦਾ ਮੌਜੂਦਾ ਰਸਤਾ - ਵਿਸਤ੍ਰਿਤ ਸੁਰੱਖਿਆ ਮੁਲਾਂਕਣਾਂ ਦੀ ਜਨਤਕ ਰਿਲੀਜ਼ ਵਿੱਚ ਦੇਰੀ ਕਰਦੇ ਹੋਏ ਪਹਿਲਾਂ ਨਾਲੋਂ ਤੇਜ਼ੀ ਨਾਲ ਵੱਧਦੀ ਸਮਰੱਥਾ ਵਾਲੇ ਮਾਡਲਾਂ ਨੂੰ ਭੇਜਣਾ - ਪੂਰੇ ਖੇਤਰ ਲਈ ਇੱਕ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਖਤਰਨਾਕ ਪੂਰਵ-ਉਦਾਹਰਨ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ।
ਚਿੰਤਾ ਦਾ ਮੂਲ ਤਕਨਾਲੋਜੀ ਦੇ ਸੁਭਾਅ ਵਿੱਚ ਹੈ। Gemini ਸੀਰੀਜ਼ ਵਰਗੇ ਫਰੰਟੀਅਰ AI ਮਾਡਲ ਸਿਰਫ਼ ਵਾਧੇ ਵਾਲੇ ਸਾਫਟਵੇਅਰ ਅੱਪਡੇਟ ਨਹੀਂ ਹਨ; ਉਹ ਵੱਧਦੀਆਂ ਗੁੰਝਲਦਾਰ ਅਤੇ ਕਈ ਵਾਰ ਅਣਪਛਾਤੀਆਂ ਸਮਰੱਥਾਵਾਂ ਵਾਲੇ ਸ਼ਕਤੀਸ਼ਾਲੀ ਸਾਧਨਾਂ ਦੀ ਨੁਮਾਇੰਦਗੀ ਕਰਦੇ ਹਨ। ਜਿਵੇਂ ਕਿ ਇਹ ਸਿਸਟਮ ਵਧੇਰੇ ਆਧੁਨਿਕ ਬਣ ਜਾਂਦੇ ਹਨ, ਉਹਨਾਂ ਦੀ ਤੈਨਾਤੀ ਨਾਲ ਜੁੜੇ ਸੰਭਾਵੀ ਜੋਖਮ - ਵਧੇ ਹੋਏ ਪੱਖਪਾਤ ਅਤੇ ਗਲਤ ਜਾਣਕਾਰੀ ਪੈਦਾ ਕਰਨ ਤੋਂ ਲੈ ਕੇ ਅਣਕਿਆਸੇ ਉੱਭਰ ਰਹੇ ਵਿਵਹਾਰਾਂ ਅਤੇ ਸੰਭਾਵੀ ਦੁਰਵਰਤੋਂ ਤੱਕ - ਵੀ ਵਧਦੇ ਹਨ।
- ਵਿਸ਼ਵਾਸ ਦਾ ਖੋਰਾ: ਜਦੋਂ ਡਿਵੈਲਪਰ ਬਿਨਾਂ ਸਮਕਾਲੀ, ਵਿਆਪਕ ਸੁਰੱਖਿਆ ਖੁਲਾਸਿਆਂ ਦੇ ਸ਼ਕਤੀਸ਼ਾਲੀ AI ਜਾਰੀ ਕਰਦੇ ਹਨ, ਤਾਂ ਇਹ ਜਨਤਕ ਵਿਸ਼ਵਾਸ ਨੂੰ ਖੋਰਾ ਲਗਾ ਸਕਦਾ ਹੈ ਅਤੇ ਤਕਨਾਲੋਜੀ ਦੀ ਬੇਰੋਕ ਤਰੱਕੀ ਬਾਰੇ ਚਿੰਤਾਵਾਂ ਨੂੰ ਵਧਾ ਸਕਦਾ ਹੈ।
- ਰੁਕਾਵਟੀ ਖੋਜ: ਸੁਤੰਤਰ ਖੋਜਕਰਤਾ ਨਿਰਪੱਖ ਸੁਰੱਖਿਆ ਮੁਲਾਂਕਣ ਕਰਨ, ਕਮਜ਼ੋਰੀਆਂ ਦੀ ਪਛਾਣ ਕਰਨ, ਅਤੇ ਘਟਾਉਣ ਦੀਆਂ ਰਣਨੀਤੀਆਂ ਵਿਕਸਤ ਕਰਨ ਲਈ ਵਿਸਤ੍ਰਿਤ ਮਾਡਲ ਜਾਣਕਾਰੀ ‘ਤੇ ਨਿਰਭਰ ਕਰਦੇ ਹਨ। ਦੇਰੀ ਨਾਲ ਰਿਪੋਰਟਿੰਗ ਇਸ ਮਹੱਤਵਪੂਰਨ ਬਾਹਰੀ ਪ੍ਰਮਾਣਿਕਤਾ ਪ੍ਰਕਿਰਿਆ ਵਿੱਚ ਰੁਕਾਵਟ ਪਾਉਂਦੀ ਹੈ।
- ਅਪਾਰਦਰਸ਼ਤਾ ਦਾ ਸਧਾਰਨੀਕਰਨ: ਜੇਕਰ Google ਵਰਗਾ ਇੱਕ ਪ੍ਰਮੁੱਖ ਖਿਡਾਰੀ ਪਹਿਲਾਂ ਤੈਨਾਤ ਕਰਨ ਅਤੇ ਬਾਅਦ ਵਿੱਚ ਦਸਤਾਵੇਜ਼ ਬਣਾਉਣ ਦਾ ਇੱਕ ਪੈਟਰਨ ਅਪਣਾਉਂਦਾ ਹੈ, ਤਾਂ ਇਹ ਉਦਯੋਗ ਵਿੱਚ ਇਸ ਅਭਿਆਸ ਨੂੰ ਸਧਾਰਨ ਬਣਾ ਸਕਦਾ ਹੈ, ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਇੱਕ ਪ੍ਰਤੀਯੋਗੀ ‘ਤਲ ਤੱਕ ਦੌੜ’ ਵੱਲ ਲੈ ਜਾ ਸਕਦਾ ਹੈ ਜਿੱਥੇ ਗਤੀ ਲਈ ਪਾਰਦਰਸ਼ਤਾ ਦੀ ਬਲੀ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ।
- ਨੁਕਸਾਨ ਦਾ ਵਧਿਆ ਹੋਇਆ ਜੋਖਮ: ਇੱਕ ਮਾਡਲ ਦੀਆਂ ਸੀਮਾਵਾਂ, ਪੱਖਪਾਤ, ਅਤੇ ਅਸਫਲਤਾ ਮੋਡਾਂ (ਸਖਤ ਰੈੱਡ ਟੀਮਿੰਗ ਅਤੇ ਟੈਸਟਿੰਗ ਦੁਆਰਾ ਖੋਜੇ ਗਏ) ਬਾਰੇ ਸਮੇਂ ਸਿਰ ਜਾਣਕਾਰੀ ਤੱਕ ਪਹੁੰਚ ਤੋਂ ਬਿਨਾਂ, ਅਸਲ-ਸੰਸਾਰ ਐਪਲੀਕੇਸ਼ਨ