ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੀ ਲਗਾਤਾਰ ਤਰੱਕੀ ਹੁਣ Silicon Valley ਦੀਆਂ ਪ੍ਰਯੋਗਸ਼ਾਲਾਵਾਂ ਅਤੇ ਬੋਰਡਰੂਮਾਂ ਤੱਕ ਹੀ ਸੀਮਤ ਨਹੀਂ ਰਹੀ; ਇਹ ਤੇਜ਼ੀ ਨਾਲ ਸਭ ਤੋਂ ਛੋਟੀ ਪੀੜ੍ਹੀ ਦੇ ਹੱਥਾਂ ਵਿੱਚ ਆਪਣਾ ਰਸਤਾ ਲੱਭ ਰਹੀ ਹੈ। Google, ਡਿਜੀਟਲ ਖੇਤਰ ਵਿੱਚ ਇੱਕ ਦਿੱਗਜ, 13 ਸਾਲ ਤੋਂ ਘੱਟ ਉਮਰ ਦੇ ਬੱਚਿਆਂ ਲਈ ਵਿਸ਼ੇਸ਼ ਤੌਰ ‘ਤੇ ਤਿਆਰ ਕੀਤੇ ਗਏ ਆਪਣੇ ਸ਼ਕਤੀਸ਼ਾਲੀ Gemini AI ਦਾ ਇੱਕ ਸੰਸਕਰਣ ਪੇਸ਼ ਕਰਨ ਲਈ ਤਿਆਰ ਜਾਪਦਾ ਹੈ। ਇਹ ਵਿਕਾਸ, ਕੋਡ ਵਿਸ਼ਲੇਸ਼ਣ ਦੁਆਰਾ ਖੋਜਿਆ ਗਿਆ, ਵਧ ਰਹੀ ਸਮਾਜਿਕ ਬੇਚੈਨੀ ਅਤੇ ਬਾਲ ਭਲਾਈ ਵਕੀਲਾਂ ਵੱਲੋਂ ਨੌਜਵਾਨ, ਵਿਕਾਸਸ਼ੀਲ ਦਿਮਾਗਾਂ ‘ਤੇ ਆਧੁਨਿਕ ਚੈਟਬੋਟਸ ਦੇ ਸੰਭਾਵੀ ਪ੍ਰਭਾਵ ਬਾਰੇ ਸਪੱਸ਼ਟ ਚੇਤਾਵਨੀਆਂ ਦੇ ਵਿਚਕਾਰ ਆਇਆ ਹੈ। ਇਹ ਕਦਮ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਤਬਦੀਲੀ ਦਾ ਸੰਕੇਤ ਦਿੰਦਾ ਹੈ, ਪੁਰਾਣੀ, ਸਰਲ ਤਕਨਾਲੋਜੀ ਨੂੰ ਬਹੁਤ ਜ਼ਿਆਦਾ ਸਮਰੱਥ, ਅਤੇ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ, ਬਹੁਤ ਜ਼ਿਆਦਾ ਖਤਰਨਾਕ ਚੀਜ਼ ਨਾਲ ਬਦਲਦਾ ਹੈ।
ਅਟੱਲ ਲਹਿਰ: AI ਖੇਡ ਦੇ ਮੈਦਾਨ ਵਿੱਚ ਦਾਖਲ ਹੁੰਦਾ ਹੈ
ਬੱਚਿਆਂ ਲਈ ਡਿਜੀਟਲ ਲੈਂਡਸਕੇਪ ਇੱਕ ਡੂੰਘੀ ਤਬਦੀਲੀ ਵਿੱਚੋਂ ਲੰਘ ਰਿਹਾ ਹੈ। ਮੁਕਾਬਲਤਨ ਸਿੱਧੇ, ਕਮਾਂਡ-ਅਧਾਰਿਤ ਵਰਚੁਅਲ ਅਸਿਸਟੈਂਟਸ ਦਾ ਯੁੱਗ ਖਤਮ ਹੋ ਰਿਹਾ ਹੈ। ਇਸਦੀ ਥਾਂ ‘ਤੇ ਜਨਰੇਟਿਵ AI ਦਾ ਯੁੱਗ ਉੱਭਰ ਰਿਹਾ ਹੈ - ਸਿਸਟਮ ਜੋ ਗੱਲਬਾਤ ਕਰਨ, ਬਣਾਉਣ ਅਤੇ ਹੈਰਾਨੀਜਨਕ ਵਫ਼ਾਦਾਰੀ ਨਾਲ ਮਨੁੱਖੀ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਦੀ ਨਕਲ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤੇ ਗਏ ਹਨ। ਬੱਚੇ, ਸੁਭਾਵਕ ਤੌਰ ‘ਤੇ ਉਤਸੁਕ ਅਤੇ ਵੱਧ ਤੋਂ ਵੱਧ ਡਿਜੀਟਲ ਤੌਰ ‘ਤੇ ਮੂਲ ਨਿਵਾਸੀ, ਪਹਿਲਾਂ ਹੀ ਇਹਨਾਂ ਤਕਨਾਲੋਜੀਆਂ ਨਾਲ ਗੱਲਬਾਤ ਕਰ ਰਹੇ ਹਨ। ਜਿਵੇਂ ਕਿ England ਲਈ ਬੱਚਿਆਂ ਦੇ ਕਮਿਸ਼ਨਰ ਨੇ ਸਪੱਸ਼ਟ ਤੌਰ ‘ਤੇ ਨੋਟ ਕੀਤਾ ਹੈ, ਇੱਕ ਸਪੱਸ਼ਟ ਚਿੰਤਾ ਹੈ ਕਿ ਨੌਜਵਾਨ ਮਾਰਗਦਰਸ਼ਨ ਅਤੇ ਜਵਾਬਾਂ ਲਈ ਮਾਪਿਆਂ ਜਾਂ ਭਰੋਸੇਮੰਦ ਬਾਲਗਾਂ ਨਾਲ ਜੁੜਨ ਦੀ ਬਜਾਏ AI ਚੈਟਬੋਟਸ ਦੇ ਤੁਰੰਤ, ਪ੍ਰਤੀਤ ਹੋਣ ਵਾਲੇ ਗਿਆਨਵਾਨ ਜਵਾਬਾਂ ਵੱਲ ਮੁੜ ਸਕਦੇ ਹਨ। ਕਮਿਸ਼ਨਰ ਦੀ ਦਿਲ ਨੂੰ ਛੂਹਣ ਵਾਲੀ ਬੇਨਤੀ - ‘ਜੇ ਅਸੀਂ ਚਾਹੁੰਦੇ ਹਾਂ ਕਿ ਬੱਚੇ ਜੀਵਨ ਦੇ ਚਮਕਦਾਰ ਟੈਕਨੀਕਲਰ ਦਾ ਅਨੁਭਵ ਕਰਨ… ਸਾਨੂੰ ਇਹ ਸਾਬਤ ਕਰਨਾ ਹੋਵੇਗਾ ਕਿ ਅਸੀਂ Chat GPT ਨਾਲੋਂ ਤੇਜ਼ੀ ਨਾਲ ਉਹਨਾਂ ਦਾ ਜਵਾਬ ਦੇਵਾਂਗੇ’ - ਚੁਣੌਤੀ ਨੂੰ ਰੇਖਾਂਕਿਤ ਕਰਦੀ ਹੈ। ਬੱਚੇ ਜਾਣਕਾਰੀ ਅਤੇ ਸੰਪਰਕ ਦੀ ਭਾਲ ਕਰਦੇ ਹਨ, ਅਤੇ AI ਇੱਕ ਹਮੇਸ਼ਾ ਮੌਜੂਦ, ਗੈਰ-ਨਿਰਣਾਇਕ, ਅਤੇ ਤੇਜ਼ ਸਰੋਤ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦਾ ਹੈ।
ਇਹ ਇਸ ਸੰਦਰਭ ਵਿੱਚ ਹੈ ਕਿ Google ਦਾ ‘Gemini for Kids’ ਦਾ ਵਿਕਾਸ ਉੱਭਰਦਾ ਹੈ। ਇੱਕ ਪਾਸੇ, ਇਸਨੂੰ ਇੱਕ ਕਿਰਿਆਸ਼ੀਲ, ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਜ਼ਿੰਮੇਵਾਰ ਉਪਾਅ ਵਜੋਂ ਦੇਖਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਇੱਕ ਸਮਰਪਿਤ, ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ ਕੰਧ-ਬਾਗ ਵਾਲਾ ਵਾਤਾਵਰਣ ਬਣਾ ਕੇ, Google ਮਾਪਿਆਂ ਨੂੰ ਨਿਗਰਾਨੀ ਅਤੇ ਨਿਯੰਤਰਣ ਦੀ ਇੱਕ ਡਿਗਰੀ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰ ਸਕਦਾ ਹੈ ਜੋ ਵੱਡੇ ਪੱਧਰ ‘ਤੇ ਗੈਰਹਾਜ਼ਰ ਹੈ ਜਦੋਂ ਬੱਚੇ ਆਨਲਾਈਨ ਉਪਲਬਧ ਆਮ-ਉਦੇਸ਼ ਵਾਲੇ AI ਸਾਧਨਾਂ ਤੱਕ ਪਹੁੰਚ ਕਰਦੇ ਹਨ। ਤਰਕ ਇਹ ਹੈ ਕਿ ਜੇਕਰ ਬੱਚਿਆਂ ਦਾ AI ਨਾਲ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਅਟੱਲ ਹੈ, ਤਾਂ ਬਿਲਟ-ਇਨ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਅਤੇ ਮਾਪਿਆਂ ਦੇ ਪ੍ਰਬੰਧਨ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਵਾਲਾ ਇੱਕ ਪਲੇਟਫਾਰਮ ਪ੍ਰਦਾਨ ਕਰਨਾ ਬਿਹਤਰ ਹੈ।
ਇਹ ਪਹਿਲਕਦਮੀ Google ਦੇ ਆਪਣੇ ਰਣਨੀਤਕ ਫੈਸਲਿਆਂ ਦੁਆਰਾ ਹੋਰ ਵੀ ਜ਼ਰੂਰੀ ਬਣ ਗਈ ਹੈ। ਕੰਪਨੀ ਆਪਣੇ ਅਸਲ Google Assistant - ਇੱਕ ਜਾਣਿਆ-ਪਛਾਣਿਆ, ਵੱਡੇ ਪੱਧਰ ‘ਤੇ ਗੈਰ-AI ਟੂਲ - ਨੂੰ ਬਹੁਤ ਜ਼ਿਆਦਾ ਉੱਨਤ Gemini ਦੇ ਹੱਕ ਵਿੱਚ ਸਰਗਰਮੀ ਨਾਲ ਖਤਮ ਕਰ ਰਹੀ ਹੈ। Google ਈਕੋਸਿਸਟਮ ਵਿੱਚ ਏਕੀਕ੍ਰਿਤ ਪਰਿਵਾਰਾਂ ਲਈ, ਖਾਸ ਤੌਰ ‘ਤੇ Family Link ਦੁਆਰਾ ਪ੍ਰਬੰਧਿਤ Android ਡਿਵਾਈਸਾਂ ਅਤੇ Google ਖਾਤਿਆਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਵਾਲਿਆਂ ਲਈ, ਤਬਦੀਲੀ ਵਿਕਲਪਿਕ ਨਹੀਂ ਹੈ। ਜਿਵੇਂ ਕਿ ਪੁਰਾਣਾ Assistant ਫਿੱਕਾ ਪੈ ਜਾਂਦਾ ਹੈ, Gemini ਡਿਫੌਲਟ ਬਣ ਜਾਂਦਾ ਹੈ। ਇਹ ਮਾਈਗ੍ਰੇਸ਼ਨ ਛੋਟੇ ਉਪਭੋਗਤਾਵਾਂ ਲਈ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਦੀ ਸਿਰਜਣਾ ਨੂੰ ਲਾਜ਼ਮੀ ਬਣਾਉਂਦਾ ਹੈ ਜੋ ਲਾਜ਼ਮੀ ਤੌਰ ‘ਤੇ ਇਸ ਵਧੇਰੇ ਸ਼ਕਤੀਸ਼ਾਲੀ AI ਦਾ ਸਾਹਮਣਾ ਕਰਨਗੇ। ਮੌਜੂਦਾ ਮਾਪਿਆਂ ਦੇ ਨਿਯੰਤਰਣ, ਸਰਲ Assistant ਲਈ ਤਿਆਰ ਕੀਤੇ ਗਏ, Gemini ਵਰਗੇ ਜਨਰੇਟਿਵ AI ਦੁਆਰਾ ਪੈਦਾ ਹੋਈਆਂ ਵਿਲੱਖਣ ਚੁਣੌਤੀਆਂ ਨੂੰ ਹੱਲ ਕਰਨ ਲਈ ਮਹੱਤਵਪੂਰਨ ਅਨੁਕੂਲਨ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਪੁਰਾਣਾ ਢਾਂਚਾ ਅੱਗੇ ਦੀਆਂ ਜਟਿਲਤਾਵਾਂ ਲਈ ਸਿਰਫ਼ ਲੈਸ ਨਹੀਂ ਹੈ।
Gemini ਦਾ ਕਿਨਾਰਾ: ਸਮਰੱਥਾਵਾਂ ਅਤੇ ਚਿੰਤਾਵਾਂ ਵਧੀਆਂ
ਜਾਣ ਵਾਲੇ Google Assistant ਅਤੇ ਆਉਣ ਵਾਲੇ Gemini ਵਿਚਕਾਰ ਅੰਤਰ ਨੂੰ ਸਮਝਣਾ ਵਧੇ ਹੋਏ ਦਾਅ ਨੂੰ ਸਮਝਣ ਲਈ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਅਸਲ Assistant ਮੁੱਖ ਤੌਰ ‘ਤੇ ਪੂਰਵ-ਪ੍ਰੋਗਰਾਮ ਕੀਤੇ ਜਵਾਬਾਂ ਅਤੇ ਸਿੱਧੇ ਕਮਾਂਡ ਐਗਜ਼ੀਕਿਊਸ਼ਨ ‘ਤੇ ਕੰਮ ਕਰਦਾ ਸੀ। ਇਹ ਤੁਹਾਨੂੰ ਮੌਸਮ ਦੱਸ ਸਕਦਾ ਸੀ, ਇੱਕ ਟਾਈਮਰ ਸੈਟ ਕਰ ਸਕਦਾ ਸੀ, ਜਾਂ ਇੱਕ ਖਾਸ ਗੀਤ ਚਲਾ ਸਕਦਾ ਸੀ। ਇਸ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ, ਜਦੋਂ ਕਿ ਉਪਯੋਗੀ ਸਨ, ਬੁਨਿਆਦੀ ਤੌਰ ‘ਤੇ ਸੀਮਤ ਅਤੇ ਅਨੁਮਾਨਯੋਗ ਸਨ।
Gemini ਇੱਕ ਕੁਆਂਟਮ ਲੀਪ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ। ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ (LLMs) ‘ਤੇ ਬਣਾਇਆ ਗਿਆ, ਇਹ ਇੱਕ ਕਾਰਜ-ਮੁਖੀ ਰੋਬੋਟ ਨਾਲੋਂ ਇੱਕ ਗੱਲਬਾਤ ਕਰਨ ਵਾਲੇ ਸਾਥੀ ਵਾਂਗ ਬਹੁਤ ਜ਼ਿਆਦਾ ਕੰਮ ਕਰਦਾ ਹੈ। ਇਹ ਟੈਕਸਟ ਤਿਆਰ ਕਰ ਸਕਦਾ ਹੈ, ਕਹਾਣੀਆਂ ਲਿਖ ਸਕਦਾ ਹੈ, ਗੱਲਬਾਤ ਵਿੱਚ ਸ਼ਾਮਲ ਹੋ ਸਕਦਾ ਹੈ, ਗੁੰਝਲਦਾਰ ਸਵਾਲਾਂ ਦੇ ਜਵਾਬ ਦੇ ਸਕਦਾ ਹੈ, ਅਤੇ ਇੱਥੋਂ ਤੱਕ ਕਿ ਉੱਭਰਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਵੀ ਕਰ ਸਕਦਾ ਹੈ ਜੋ ਇਸਦੇ ਸਿਰਜਣਹਾਰਾਂ ਨੂੰ ਹੈਰਾਨ ਕਰ ਦਿੰਦੀਆਂ ਹਨ। ਇਹ ਸ਼ਕਤੀ, ਹਾਲਾਂਕਿ, ਇੱਕ ਦੋ-ਧਾਰੀ ਤਲਵਾਰ ਹੈ, ਖਾਸ ਕਰਕੇ ਜਿੱਥੇ ਬੱਚਿਆਂ ਦਾ ਸਬੰਧ ਹੈ।
LLMs ਦੀ ਬਹੁਤ ਹੀ ਕੁਦਰਤ ਅੰਦਰੂਨੀ ਜੋਖਮਾਂ ਨੂੰ ਪੇਸ਼ ਕਰਦੀ ਹੈ:
- ਗਲਤ ਜਾਣਕਾਰੀ ਅਤੇ ‘ਭਰਮ’: Gemini, ਸਾਰੇ ਮੌਜੂਦਾ LLMs ਵਾਂਗ, ਮਨੁੱਖੀ ਅਰਥਾਂ ਵਿੱਚ ਚੀਜ਼ਾਂ ਨੂੰ ‘ਜਾਣਦਾ’ ਨਹੀਂ ਹੈ। ਇਹ ਉਸ ਵਿਸ਼ਾਲ ਡੇਟਾਸੈਟ ਦੇ ਅਧਾਰ ਤੇ ਸ਼ਬਦਾਂ ਦੇ ਸੰਭਾਵਿਤ ਕ੍ਰਮ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਦਾ ਹੈ ਜਿਸ ‘ਤੇ ਇਸਨੂੰ ਸਿਖਲਾਈ ਦਿੱਤੀ ਗਈ ਸੀ। ਇਹ ਇਸਨੂੰ ਭਰੋਸੇਯੋਗ-ਆਵਾਜ਼ ਵਾਲੀ ਪਰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਝੂਠੀ ਜਾਣਕਾਰੀ ਪੈਦਾ ਕਰਨ ਵੱਲ ਲੈ ਜਾ ਸਕਦਾ ਹੈ, ਜਿਸਨੂੰ ਅਕਸਰ ‘ਭਰਮ’ ਕਿਹਾ ਜਾਂਦਾ ਹੈ। ਇਤਿਹਾਸਕ ਤੱਥਾਂ ਜਾਂ ਵਿਗਿਆਨਕ ਵਿਆਖਿਆਵਾਂ ਲਈ ਪੁੱਛਣ ਵਾਲਾ ਬੱਚਾ ਭਰੋਸੇ ਨਾਲ ਦਿੱਤੀਆਂ ਗਈਆਂ ਗਲਤੀਆਂ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦਾ ਹੈ।
- ਪੱਖਪਾਤ ਵਧਾਉਣਾ: LLMs ਲਈ ਵਰਤਿਆ ਜਾਣ ਵਾਲਾ ਸਿਖਲਾਈ ਡੇਟਾ ਅਸਲ-ਸੰਸਾਰ ਟੈਕਸਟ ਵਿੱਚ ਮੌਜੂਦ ਪੱਖਪਾਤ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ ਜਿਸਨੂੰ ਇਸਨੇ ਗ੍ਰਹਿਣ ਕੀਤਾ ਹੈ। Gemini ਅਣਜਾਣੇ ਵਿੱਚ ਰੂੜ੍ਹੀਵਾਦੀ ਧਾਰਨਾਵਾਂ ਨੂੰ ਕਾਇਮ ਰੱਖ ਸਕਦਾ ਹੈ ਜਾਂ ਸੰਵੇਦਨਸ਼ੀਲ ਵਿਸ਼ਿਆਂ ‘ਤੇ ਤਿਰਛੇ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਪੇਸ਼ ਕਰ ਸਕਦਾ ਹੈ, ਬਿਨਾਂ ਨਾਜ਼ੁਕ ਸੰਦਰਭ ਦੇ ਬੱਚੇ ਦੀ ਸਮਝ ਨੂੰ ਸੂਖਮ ਰੂਪ ਵਿੱਚ ਆਕਾਰ ਦੇ ਸਕਦਾ ਹੈ।
- ਅਣਉਚਿਤ ਸਮੱਗਰੀ ਉਤਪਾਦਨ: ਜਦੋਂ ਕਿ ਸੁਰੱਖਿਆ ਉਪਾਅ ਬਿਨਾਂ ਸ਼ੱਕ ਵਿਕਸਤ ਕੀਤੇ ਜਾ ਰਹੇ ਹਨ, Gemini ਦੀ ਉਤਪਾਦਕ ਪ੍ਰਕਿਰਤੀ ਦਾ ਮਤਲਬ ਹੈ ਕਿ ਇਹ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਸਮੱਗਰੀ - ਕਹਾਣੀਆਂ, ਵਰਣਨ, ਜਾਂ ਸੰਵਾਦ - ਪੈਦਾ ਕਰ ਸਕਦਾ ਹੈ ਜੋ ਬੱਚਿਆਂ ਲਈ ਅਣਉਚਿਤ ਹੈ, ਜਾਂ ਤਾਂ ਕਿਸੇ ਪ੍ਰੋਂਪਟ ਨੂੰ ਗਲਤ ਸਮਝਣ ਦੁਆਰਾ ਜਾਂ ਸਮੱਗਰੀ ਫਿਲਟਰਾਂ ਵਿੱਚ ਕਮੀਆਂ ਲੱਭਣ ਦੁਆਰਾ।
- ਸੱਚੀ ਸਮਝ ਦੀ ਘਾਟ: Gemini ਗੱਲਬਾਤ ਦੀ ਨਕਲ ਕਰਦਾ ਹੈ; ਇਹ ਮਨੁੱਖਾਂ ਵਾਂਗ ਅਰਥ ਜਾਂ ਸੰਦਰਭ ਨੂੰ ਨਹੀਂ ਸਮਝਦਾ। ਇਹ ਸੱਚਮੁੱਚ ਕਿਸੇ ਬੱਚੇ ਦੀ ਭਾਵਨਾਤਮਕ ਸਥਿਤੀ ਦਾ ਅੰਦਾਜ਼ਾ ਨਹੀਂ ਲਗਾ ਸਕਦਾ ਜਾਂ ਸੰਵੇਦਨਸ਼ੀਲ ਨਿੱਜੀ ਖੁਲਾਸਿਆਂ ਦੀਆਂ ਬਾਰੀਕੀਆਂ ਨੂੰ ਨਹੀਂ ਸਮਝ ਸਕਦਾ। ਇਹ ਉਹਨਾਂ ਜਵਾਬਾਂ ਵੱਲ ਲੈ ਜਾ ਸਕਦਾ ਹੈ ਜੋ ਟੋਨ ਦੇ ਤੌਰ ‘ਤੇ ਅਣਉਚਿਤ, ਬੇਕਾਰ, ਜਾਂ ਨਾਜ਼ੁਕ ਸਥਿਤੀਆਂ ਵਿੱਚ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਨੁਕਸਾਨਦੇਹ ਵੀ ਹਨ।
- ਵੱਧ-ਨਿਰਭਰਤਾ ਅਤੇ ਮਾਨਵ-ਰੂਪਵਾਦ: Gemini ਵਰਗੇ AI ਦੀ ਗੱਲਬਾਤ ਦੀ ਰਵਾਨਗੀ ਬੱਚਿਆਂ ਨੂੰ ਇਸਨੂੰ ਮਾਨਵ-ਰੂਪ ਦੇਣ ਲਈ ਉਤਸ਼ਾਹਿਤ ਕਰ ਸਕਦੀ ਹੈ - ਇਸਨੂੰ ਇੱਕ ਦੋਸਤ ਜਾਂ ਸੰਵੇਦਨਸ਼ੀਲ ਜੀਵ ਵਜੋਂ ਮੰਨਣਾ। ਇਹ ਇੱਕ ਗੈਰ-ਸਿਹਤਮੰਦ ਨਿਰਭਰਤਾ ਨੂੰ ਵਧਾ ਸਕਦਾ ਹੈ, ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਅਸਲ-ਸੰਸਾਰ ਸਮਾਜਿਕ ਹੁਨਰਾਂ ਅਤੇ ਭਾਵਨਾਤਮਕ ਬੁੱਧੀ ਦੇ ਵਿਕਾਸ ਵਿੱਚ ਰੁਕਾਵਟ ਪਾ ਸਕਦਾ ਹੈ।
ਇਹ ਜੋਖਮ ਪੁਰਾਣੇ Google Assistant ਨਾਲੋਂ Gemini ਨਾਲ ਕਾਫ਼ੀ ਜ਼ਿਆਦਾ ਸਪੱਸ਼ਟ ਹਨ। ਤਬਦੀਲੀ ਸਿਰਫ਼ ਮੌਜੂਦਾ ਮਾਪਿਆਂ ਦੇ ਨਿਯੰਤਰਣਾਂ ਨੂੰ ਪੋਰਟ ਕਰਨ ਨਾਲੋਂ ਸੁਰੱਖਿਆ ਲਈ ਬਹੁਤ ਜ਼ਿਆਦਾ ਮਜ਼ਬੂਤ ਅਤੇ ਸੂਖਮ ਪਹੁੰਚ ਦੀ ਮੰਗ ਕਰਦੀ ਹੈ।
ਕੋਡ ਵਿੱਚ ਕਾਨਾਫੂਸੀ: ਇੱਕ ਸਖ਼ਤ ਚੇਤਾਵਨੀ ਉੱਭਰਦੀ ਹੈ
Android ‘ਤੇ Google ਐਪ ਦੇ ਕੋਡ ਦੀਆਂ ਹਾਲੀਆ ਜਾਂਚਾਂ, Android Authority ਦੇ ਸਹਿਯੋਗ ਨਾਲ ਮਾਹਿਰਾਂ ਦੁਆਰਾ ਕੀਤੀਆਂ ਗਈਆਂ, ਨੇ ‘Gemini for Kids’ ਲਈ Google ਦੀਆਂ ਅੰਦਰੂਨੀ ਤਿਆਰੀਆਂ ‘ਤੇ ਰੌਸ਼ਨੀ ਪਾਈ ਹੈ। ਉਪਭੋਗਤਾ ਇੰਟਰਫੇਸ ਲਈ ਇਰਾਦਾ ਕੀਤੇ ਗਏ, ਅਕਿਰਿਆਸ਼ੀਲ ਕੋਡ ਸਤਰਾਂ ਦੇ ਅੰਦਰ ਦੱਬੇ ਹੋਏ, ਯੋਜਨਾਬੱਧ ਸੰਦੇਸ਼ ਨੂੰ ਪ੍ਰਗਟ ਕਰਨ ਵਾਲੇ ਦੱਸਣ ਵਾਲੇ ਟੁਕੜੇ ਹਨ:
- ਸਿਰਲੇਖ ਜਿਵੇਂ:
Assistant_scrappy_welcome_screen_title_for_kid_users
— Google Assistant ਤੋਂ Gemini ‘ਤੇ ਸਵਿਚ ਕਰੋ - ਵਰਣਨ ਜਿਵੇਂ ਕਿ:
Assistant_welcome_screen_description_for_kid_users
— ਕਹਾਣੀਆਂ ਬਣਾਓ, ਸਵਾਲ ਪੁੱਛੋ, ਹੋਮਵਰਕ ਵਿੱਚ ਮਦਦ ਪ੍ਰਾਪਤ ਕਰੋ, ਅਤੇ ਹੋਰ ਬਹੁਤ ਕੁਝ। - ਮਹੱਤਵਪੂਰਨ ਤੌਰ ‘ਤੇ, ਇੱਕ ਫੁੱਟਰ ਸੁਨੇਹਾ:
Assistant_welcome_screen_footer_for_kid_users
— Google ਦੀਆਂ ਸ਼ਰਤਾਂ ਲਾਗੂ ਹੁੰਦੀਆਂ ਹਨ। Google ਤੁਹਾਡੇ ਡੇਟਾ ਨੂੰ Google ਗੋਪਨੀਯਤਾ ਨੀਤੀ ਅਤੇ Gemini ਐਪਸ ਗੋਪਨੀਯਤਾ ਨੋਟਿਸ ਵਿੱਚ ਵਰਣਨ ਕੀਤੇ ਅਨੁਸਾਰ ਪ੍ਰੋਸੈਸ ਕਰੇਗਾ। Gemini ਇਨਸਾਨ ਨਹੀਂ ਹੈ ਅਤੇ ਗਲਤੀਆਂ ਕਰ ਸਕਦਾ ਹੈ, ਲੋਕਾਂ ਬਾਰੇ ਵੀ, ਇਸ ਲਈ ਇਸਨੂੰ ਦੋ ਵਾਰ ਜਾਂਚੋ।
ਇਹ ਸਪੱਸ਼ਟ ਚੇਤਾਵਨੀ - ‘Gemini ਇਨਸਾਨ ਨਹੀਂ ਹੈ ਅਤੇ ਗਲਤੀਆਂ ਕਰ ਸਕਦਾ ਹੈ, ਲੋਕਾਂ ਬਾਰੇ ਵੀ, ਇਸ ਲਈ ਇਸਨੂੰ ਦੋ ਵਾਰ ਜਾਂਚੋ’ - ਸ਼ਾਇਦ ਪ੍ਰਗਟ ਕੀਤੀ ਗਈ ਸਭ ਤੋਂ ਮਹੱਤਵਪੂਰਨ ਜਾਣਕਾਰੀ ਹੈ। ਇਹ Google ਦੀ ਆਪਣੀ ਸਵੀਕ੍ਰਿਤੀ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ, ਸਿੱਧੇ ਉਪਭੋਗਤਾ ਅਨੁਭਵ ਵਿੱਚ ਸ਼ਾਮਲ ਕੀਤਾ ਗਿਆ ਹੈ, AI ਦੀ ਗਲਤੀਯੋਗਤਾ ਦਾ।
ਹਾਲਾਂਕਿ, ਇਸ ਚੇਤਾਵਨੀ ਦੀ ਮੌਜੂਦਗੀ ਡੂੰਘੇ ਸਵਾਲ ਖੜ੍ਹੇ ਕਰਦੀ ਹੈ। ਜਦੋਂ ਕਿ ਪਾਰਦਰਸ਼ਤਾ ਸ਼ਲਾਘਾਯੋਗ ਹੈ, ਬੱਚਿਆਂ ਨੂੰ ਨਿਰਦੇਸ਼ਿਤ ਕੀਤੇ ਜਾਣ ‘ਤੇ ਅਜਿਹੇ ਬੇਦਾਅਵੇ ਦੀ ਪ੍ਰਭਾਵਸ਼ੀਲਤਾ ਬਹੁਤ ਬਹਿਸਯੋਗ ਹੈ। ਮੁੱਖ ਚੁਣੌਤੀ ਬੱਚੇ ‘ਤੇ ਰੱਖੀ ਗਈ ਉਮੀਦ ਵਿੱਚ ਹੈ: AI ਦੁਆਰਾ ਪ੍ਰਦਾਨ ਕੀਤੀ ਗਈ ਜਾਣਕਾਰੀ ਨੂੰ ‘ਦੋ ਵਾਰ ਜਾਂਚਣ’ ਦੀ ਯੋਗਤਾ। ਇਹ ਆਲੋਚਨਾਤਮਕ ਸੋਚ, ਮੀਡੀਆ ਸਾਖਰਤਾ, ਅਤੇ ਖੋਜ ਹੁਨਰ ਦੇ ਇੱਕ ਪੱਧਰ ਨੂੰ ਪੂਰਵ-ਅਨੁਮਾਨਿਤ ਕਰਦਾ ਹੈ ਜੋ ਬਹੁਤ ਸਾਰੇ ਬੱਚੇ, ਖਾਸ ਕਰਕੇ 13 ਸਾਲ ਤੋਂ ਘੱਟ ਉਮਰ ਦੇ, ਨੇ ਅਜੇ ਤੱਕ ਵਿਕਸਤ ਨਹੀਂ ਕੀਤਾ ਹੈ।
- ਇੱਕ 8-ਸਾਲ ਦੇ ਬੱਚੇ ਲਈ ‘ਦੋ ਵਾਰ ਜਾਂਚ’ ਦਾ ਕੀ ਮਤਲਬ ਹੈ? ਉਹ ਜਾਣਕਾਰੀ ਦੀ ਪੁਸ਼ਟੀ ਕਰਨ ਲਈ ਕਿੱਥੇ ਜਾਂਦੇ ਹਨ? ਉਹਵਿਕਲਪਕ ਸਰੋਤਾਂ ਦੀ ਭਰੋਸੇਯੋਗਤਾ ਦਾ ਮੁਲਾਂਕਣ ਕਿਵੇਂ ਕਰਦੇ ਹਨ?
- ਕੀ ਕੋਈ ਬੱਚਾ ਕਿਸੇ ਤੱਥਾਤਮਕ ਗਲਤੀ ਅਤੇ ‘ਲੋਕਾਂ ਬਾਰੇ’ ਇੱਕ ਸੂਖਮ ਗਲਤੀ ਵਿੱਚ ਫਰਕ ਕਰ ਸਕਦਾ ਹੈ? ਪੱਖਪਾਤ, ਸੂਖਮ ਅਸ਼ੁੱਧੀਆਂ, ਜਾਂ ਚਰਿੱਤਰ ਦੀਆਂ ਗਲਤ ਪੇਸ਼ਕਾਰੀਆਂ ਨੂੰ ਸਮਝਣ ਲਈ ਆਧੁਨਿਕ ਵਿਸ਼ਲੇਸ਼ਣਾਤਮਕ ਹੁਨਰਾਂ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।
- ਕੀ ਚੇਤਾਵਨੀ ਅਣਜਾਣੇ ਵਿੱਚ ਜ਼ਿੰਮੇਵਾਰੀ ਦਾ ਬੋਝ ਨੌਜਵਾਨ ਉਪਭੋਗਤਾ ‘ਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਤਬਦੀਲ ਕਰ ਦਿੰਦੀ ਹੈ? ਜਦੋਂ ਕਿ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਗਿਆਨ ਨਾਲ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰਨਾ ਮਹੱਤਵਪੂਰਨ ਹੈ, AI ਆਉਟਪੁੱਟ ਦੀ ਲਗਾਤਾਰ ਪੁਸ਼ਟੀ ਕਰਨ ਲਈ ਇੱਕ ਬੱਚੇ ਦੀ ਯੋਗਤਾ ‘ਤੇ ਭਰੋਸਾ ਕਰਨਾ ਇੱਕ ਅਸਥਿਰ ਸੁਰੱਖਿਆ ਰਣਨੀਤੀ ਜਾਪਦੀ ਹੈ।
ਇਹ ਚੇਤਾਵਨੀ ਅਸਲ Google Assistant ਲਈ ਬਹੁਤ ਘੱਟ ਨਾਜ਼ੁਕ ਸੀ, ਜਿਸ ਦੀਆਂ ਤੱਥਾਤਮਕ ਗਲਤੀਆਂ ਆਮ ਤੌਰ ‘ਤੇ ਵਧੇਰੇ ਸਿੱਧੀਆਂ ਸਨ (ਉਦਾਹਰਨ ਲਈ, ਕਿਸੇ ਕਮਾਂਡ ਦੀ ਗਲਤ ਵਿਆਖਿਆ ਕਰਨਾ) ਨਾ ਕਿ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਪੂਰੀ ਤਰ੍ਹਾਂ ਮਨਘੜਤ ਬਿਰਤਾਂਤ ਜਾਂ ਸੱਚ ਵਜੋਂ ਪੇਸ਼ ਕੀਤੇ ਗਏ ਪੱਖਪਾਤੀ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਪੈਦਾ ਕਰਨਾ। Gemini ਲਈ ਇਸ ਖਾਸ ਚੇਤਾਵਨੀ ਨੂੰ ਸ਼ਾਮਲ ਕਰਨਾ ਤਕਨਾਲੋਜੀ ਦੀ ਬੁਨਿਆਦੀ ਤੌਰ ‘ਤੇ ਵੱਖਰੀ ਪ੍ਰਕਿਰਤੀ ਅਤੇ ਸ਼ਾਮਲ ਜੋਖਮ ਦੀਆਂ ਨਵੀਆਂ ਪਰਤਾਂ ਨੂੰ ਰੇਖਾਂਕਿਤ ਕਰਦਾ ਹੈ। ਇਹ ਸੁਝਾਅ ਦਿੰਦਾ ਹੈ ਕਿ Google ਮਹੱਤਵਪੂਰਨ ਤਰੀਕਿਆਂ ਨਾਲ Gemini ਦੇ ਗਲਤੀ ਕਰਨ ਦੀ ਸੰਭਾਵਨਾ ਤੋਂ ਜਾਣੂ ਹੈ, ਭਾਵੇਂ ਵਿਅਕਤੀਆਂ ਬਾਰੇ ਚਰਚਾ ਕਰਦੇ ਸਮੇਂ ਵੀ, ਅਤੇ ਉਪਭੋਗਤਾ ਸਲਾਹਾਂ ਦੁਆਰਾ ਇਸ ਨੂੰ ਘੱਟ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰ ਰਿਹਾ ਹੈ।
ਮਾਪਿਆਂ ਦੇ ਨਿਯੰਤਰਣ ਦੀ ਉਲਝਣ: ਇੱਕ ਜ਼ਰੂਰੀ ਪਰ ਅਧੂਰਾ ਹੱਲ
‘Gemini for Kids’ ਨੂੰ Google ਦੇ ਸਥਾਪਿਤ ਮਾਪਿਆਂ ਦੇ ਨਿਯੰਤਰਣ ਬੁਨਿਆਦੀ ਢਾਂਚੇ, ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ Family Link ਨਾਲ ਏਕੀਕ੍ਰਿਤ ਕਰਨਾ, ਇੱਕ ਤਰਕਪੂਰਨ ਅਤੇ ਜ਼ਰੂਰੀ ਕਦਮ ਹੈ। ਇਹ ਮਾਪਿਆਂ ਨੂੰ ਪਹੁੰਚ ਦਾ ਪ੍ਰਬੰਧਨ ਕਰਨ, ਸੰਭਾਵੀ ਸੀਮਾਵਾਂ ਨਿਰਧਾਰਤ ਕਰਨ (ਹਾਲਾਂਕਿ ਇੱਕ ਗੱਲਬਾਤ ਕਰਨ ਵਾਲੇ AI ਲਈ ਇਹਨਾਂ ਸੀਮਾਵਾਂ ਦੀ ਪ੍ਰਕਿਰਤੀ ਅਸਪਸ਼ਟ ਰਹਿੰਦੀ ਹੈ), ਅਤੇ ਵਰਤੋਂ ਦੀ ਨਿਗਰਾਨੀ ਕਰਨ ਲਈ ਇੱਕ ਜਾਣਿਆ-ਪਛਾਣਿਆ ਇੰਟਰਫੇਸ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ। ਮਾਪਿਆਂ ਨੂੰ ਟੌਗਲ ਅਤੇ ਡੈਸ਼ਬੋਰਡ ਪ੍ਰਦਾਨ ਕਰਨਾ ਯਕੀਨੀ ਤੌਰ ‘ਤੇ ChatGPT ਵਰਗੇ ਪਲੇਟਫਾਰਮਾਂ ਨਾਲੋਂ ਇੱਕ ਫਾਇਦਾ ਦਰਸਾਉਂਦਾ ਹੈ, ਜਿਨ੍ਹਾਂ ਵਿੱਚ ਵਰਤਮਾਨ ਵਿੱਚ ਇੱਕ ਪਰਿਵਾਰਕ ਈਕੋਸਿਸਟਮ ਦੇ ਅੰਦਰ ਬੱਚਿਆਂ ਦੀ ਪਹੁੰਚ ਦੇ ਪ੍ਰਬੰਧਨ ਲਈ ਵਿਸ਼ੇਸ਼ ਤੌਰ ‘ਤੇ ਤਿਆਰ ਕੀਤੇ ਗਏ ਮਜ਼ਬੂਤ, ਏਕੀਕ੍ਰਿਤ ਮਾਪਿਆਂ ਦੇ ਨਿਯੰਤਰਣਾਂ ਦੀ ਘਾਟ ਹੈ।
ਇਹ ਨਿਯੰਤਰਣ ਪਰਤ ਬੇਸਲਾਈਨ ਸੁਰੱਖਿਆ ਅਤੇ ਜਵਾਬਦੇਹੀ ਸਥਾਪਤ ਕਰਨ ਲਈ ਜ਼ਰੂਰੀ ਹੈ। ਇਹ ਮਾਪਿਆਂ ਨੂੰ ਇਸ ਬਾਰੇ ਸੂਚਿਤ ਫੈਸਲੇ ਲੈਣ ਲਈ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ ਕਿ ਕੀ ਅਤੇ ਕਿਵੇਂ ਉਹਨਾਂ ਦਾ ਬੱਚਾ AI ਨਾਲ ਜੁੜਦਾ ਹੈ। ਹਾਲਾਂਕਿ, ਮਾਪਿਆਂ ਦੇ ਨਿਯੰਤਰਣਾਂ ਨੂੰ ਇੱਕ ਰਾਮਬਾਣ ਵਜੋਂ ਦੇਖਣ ਤੋਂ ਬਚਣਾ ਮਹੱਤਵਪੂਰਨ ਹੈ।
ਕਈ ਚੁਣੌਤੀਆਂ ਬਾਕੀ ਹਨ:
- ਜਨਰੇਟਿਵ ਲੂਪਹੋਲ: ਰਵਾਇਤੀ ਨਿਯੰਤਰਣ ਅਕਸਰ ਖਾਸ ਵੈਬਸਾਈਟਾਂ ਜਾਂ ਕੀਵਰਡਸ ਨੂੰ ਬਲੌਕ ਕਰਨ ‘ਤੇ ਧਿਆਨ ਕੇਂਦ੍ਰਤ ਕਰਦੇ ਹਨ। ਜਨਰੇਟਿਵ AI ਬਾਹਰੀ ਬਲੌਕ ਕੀਤੀਆਂ ਸਾਈਟਾਂ ਤੱਕ ਪਹੁੰਚ ਕਰਨ ‘ਤੇ ਨਿਰਭਰ ਨਹੀਂ ਕਰਦਾ; ਇਹ ਅੰਦਰੂਨੀ ਤੌਰ ‘ਤੇ ਸਮੱਗਰੀ ਬਣਾਉਂਦਾ ਹੈ। ਨਿਯੰਤਰਣ ਕਿੰਨੀ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਢੰਗ ਨਾਲ ਪ੍ਰਤੀਤ ਹੋਣ ਵਾਲੇ ਮਾਸੂਮ ਪ੍ਰੋਂਪਟਾਂ ਦੇ ਅਧਾਰ ਤੇ ਅਣਉਚਿਤ ਸਮੱਗਰੀ ਦੇ ਉਤਪਾਦਨ ਨੂੰ ਰੋਕ ਸਕਦੇ ਹਨ?
- ਵਿਕਾਸ ਦੇ ਨਾਲ ਕਦਮ ਮਿਲਾਉਣਾ: AI ਮਾਡਲਾਂ ਨੂੰ ਲਗਾਤਾਰ ਅਪਡੇਟ ਅਤੇ ਮੁੜ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ। ਅੱਜ ਲਾਗੂ ਕੀਤੇ ਗਏ ਸੁਰੱਖਿਆ ਉਪਾਅ ਅਤੇ ਨਿਯੰਤਰਣ ਘੱਟ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਹੋ ਸਕਦੇ ਹਨ ਕਿਉਂਕਿ AI ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਵਿਕਸਤ ਹੁੰਦੀਆਂ ਹਨ। ਮਜ਼ਬੂਤ ਸੁਰੱਖਿਆ ਬਣਾਈ ਰੱਖਣ ਲਈ Google ਤੋਂ ਨਿਰੰਤਰ ਚੌਕਸੀ ਅਤੇ ਅਨੁਕੂਲਨ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।
- ਝੂਠੀ ਸੁਰੱਖਿਆ ਦਾ ਜੋਖਮ: ਮਾਪਿਆਂ ਦੇ ਨਿਯੰਤਰਣਾਂ ਦੀ ਮੌਜੂਦਗੀ ਕੁਝ ਮਾਪਿਆਂ ਨੂੰ ਸੁਰੱਖਿਆ ਦੀ ਝੂਠੀ ਭਾਵਨਾ ਵਿੱਚ ਲੁਭਾ ਸਕਦੀ ਹੈ, ਜਿਸ ਨਾਲ ਉਹ ਆਪਣੇ ਬੱਚੇ ਦੇ AI ਨਾਲ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਦੀ ਅਸਲ ਸਮੱਗਰੀ ਅਤੇ ਪ੍ਰਕਿਰਤੀ ਬਾਰੇ ਘੱਟ ਚੌਕਸ ਹੋ ਸਕਦੇ ਹਨ।
- ਸਮੱਗਰੀ ਫਿਲਟਰਿੰਗ ਤੋਂ ਪਰੇ: ਜੋਖਮ ਸਿਰਫ਼ ਅਣਉਚਿਤ ਸਮੱਗਰੀ ਤੋਂ ਪਰੇ ਹਨ। ਵੱਧ-ਨਿਰਭਰਤਾ, ਆਲੋਚਨਾਤਮਕ ਸੋਚ ‘ਤੇ ਪ੍ਰਭਾਵ, ਅਤੇ ਭਾਵਨਾਤਮਕ ਹੇਰਾਫੇਰੀ ਬਾਰੇ ਚਿੰਤਾਵਾਂ ਨੂੰ ਸਿਰਫ਼ ਤਕਨੀਕੀ ਨਿਯੰਤਰਣਾਂ ਦੁਆਰਾ ਹੱਲ ਕਰਨਾ ਔਖਾ ਹੈ। ਇਹਨਾਂ ਲਈ ਨਿਰੰਤਰ ਗੱਲਬਾਤ, ਸਿੱਖਿਆ, ਅਤੇ ਮਾਪਿਆਂ ਦੀ ਸ਼ਮੂਲੀਅਤ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।
ਜਦੋਂ ਕਿ Google ਦੀ ਆਪਣੇ ਮੌਜੂਦਾ Family Link ਸਿਸਟਮ ਦਾ ਲਾਭ ਉਠਾਉਣ ਦੀ ਯੋਗਤਾ ਇੱਕ ਢਾਂਚਾਗਤ ਫਾਇਦਾ ਪ੍ਰਦਾਨ ਕਰਦੀ ਹੈ, ਬੱਚਿਆਂ ਲਈ ਜਨਰੇਟਿਵ AI ਦੇ ਵਿਲੱਖਣ ਜੋਖਮਾਂ ਨੂੰ ਘੱਟ ਕਰਨ ਵਿੱਚ ਇਹਨਾਂ ਨਿਯੰਤਰਣਾਂ ਦੀ ਪ੍ਰਭਾਵਸ਼ੀਲਤਾ ਅਜੇ ਸਾਬਤ ਹੋਣੀ ਬਾਕੀ ਹੈ। ਇਹ ਇੱਕ ਜ਼ਰੂਰੀ ਨੀਂਹ ਹੈ, ਪਰ ਸੁਰੱਖਿਆ ਲਈ ਲੋੜੀਂਦਾ ਪੂਰਾ ਢਾਂਚਾ ਨਹੀਂ ਹੈ।
ਪੜਤਾਲ ਦਾ ਲੰਮਾ ਪਰਛਾਵਾਂ: ਉਦਯੋਗ ਅਤੇ ਰੈਗੂਲੇਟਰ ਧਿਆਨ ਦਿੰਦੇ ਹਨ
Google ਦਾ ਬੱਚਿਆਂ-ਕੇਂਦ੍ਰਿਤ AI ਵਿੱਚ ਉੱਦਮ ਇੱਕ ਖਲਾਅ ਵਿੱਚ ਨਹੀਂ ਹੁੰਦਾ ਹੈ। ਵਿਆਪਕ ਤਕਨਾਲੋਜੀ ਉਦਯੋਗ, ਅਤੇ ਖਾਸ ਤੌਰ ‘ਤੇ AI ਸੈਕਟਰ, ਨੌਜਵਾਨ ਉਪਭੋਗਤਾਵਾਂ ਦੀ ਸੁਰੱਖਿਆ ਦੇ ਸਬੰਧ ਵਿੱਚ ਤੇਜ਼ੀ ਨਾਲ ਪੜਤਾਲ ਦਾ ਸਾਹਮਣਾ ਕਰ ਰਿਹਾ ਹੈ। UK ਬਾਲ ਕਮਿਸ਼ਨਰ ਦੁਆਰਾ ਪ੍ਰਗਟ ਕੀਤੀਆਂ ਗਈਆਂ ਚਿੰਤਾਵਾਂ ਵਿਸ਼ਵ ਪੱਧਰ ‘ਤੇ ਵਿਧਾਇਕਾਂ ਅਤੇ ਰੈਗੂਲੇਟਰਾਂ ਦੁਆਰਾ ਗੂੰਜਦੀਆਂ ਹਨ।
ਸੰਯੁਕਤ ਰਾਜ ਵਿੱਚ, ਸੈਨੇਟਰਾਂ Alex Padilla ਅਤੇ Peter Welch ਨੇ ਰਸਮੀ ਤੌਰ ‘ਤੇ AI ਚੈਟਬੋਟ ਕੰਪਨੀਆਂ ਤੋਂ ਉਹਨਾਂ ਦੁਆਰਾ ਲਗਾਏ ਗਏ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਬਾਰੇ ਵਿਸਤ੍ਰਿਤ ਜਾਣਕਾਰੀ ਦੀ ਬੇਨਤੀ ਕੀਤੀ ਹੈ, ਖਾਸ ਤੌਰ ‘ਤੇ ਚਰਿੱਤਰ- ਅਤੇ ਸ਼ਖਸੀਅਤ-ਅਧਾਰਿਤ AI ਐਪਲੀਕੇਸ਼ਨਾਂ ਨਾਲ ਗੱਲਬਾਤ ਕਰਨ ਵਾਲੇ ਨੌਜਵਾਨ ਉਪਭੋਗਤਾਵਾਂ ਲਈ ਮਾਨਸਿਕ ਸਿਹਤ ਜੋਖਮਾਂ ਬਾਰੇ ਚਿੰਤਾਵਾਂ ਨੂੰ ਉਜਾਗਰ ਕਰਦੇ ਹੋਏ। ਇਹ ਪੁੱਛਗਿੱਛ ਅੰਸ਼ਕ ਤੌਰ ‘ਤੇ Character.ai ਵਰਗੇ ਪਲੇਟਫਾਰਮਾਂ ਦੇ ਆਲੇ ਦੁਆਲੇ ਚਿੰਤਾਜਨਕ ਰਿਪੋਰਟਾਂ ਦੁਆਰਾ ਵਧਾਈ ਗਈ ਸੀ। CNN ਦੇ ਅਨੁਸਾਰ, ਮਾਪਿਆਂ ਨੇ ਗੰਭੀਰ ਚਿੰਤਾਵਾਂ ਜ਼ਾਹਰ ਕੀਤੀਆਂ ਹਨ, ਪਲੇਟਫਾਰਮ ‘ਤੇ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਦੇ ਨਤੀਜੇ ਵਜੋਂ ਆਪਣੇ ਬੱਚਿਆਂ ਨੂੰ ਮਹੱਤਵਪੂਰਨ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਦਾ ਦੋਸ਼ ਲਗਾਇਆ ਹੈ, ਜਿਸ ਨੇ ਪਹਿਲਾਂ ਵਿਵਾਦਪੂਰਨ ਸ਼ਖਸੀਅਤਾਂ ਦੀ ਨਕਲ ਕਰਨ ਵਾਲੇ ਚੈਟਬੋਟਸ ਦੀ ਮੇਜ਼ਬਾਨੀ ਕੀਤੀ ਸੀ, ਜਿਸ ਵਿੱਚ ਸਕੂਲ ਸ਼ੂਟਰ ਵੀ ਸ਼ਾਮਲ ਸਨ (ਹਾਲਾਂਕਿ ਇਹ ਖਾਸ ਬੋਟ ਕਥਿਤ ਤੌਰ ‘ਤੇ ਹਟਾ ਦਿੱਤੇ ਗਏ ਸਨ)।
ਵੱਖ-ਵੱਖ ਕਿਸਮਾਂ ਦੇ AI ਪਲੇਟਫਾਰਮਾਂ ਵਿੱਚ ਫਰਕ ਕਰਨਾ ਮਹੱਤਵਪੂਰਨ ਹੈ। Google ਦਾ Gemini ਇੱਕ ਆਮ-ਉਦੇਸ਼ ਸਹਾਇਕ ਵਜੋਂ ਸਥਿਤ ਹੈ, ਜੋ Character.ai ਜਾਂ Replika ਵਰਗੀਆਂ ਐਪਾਂ ਤੋਂ ਵੱਖਰਾ ਹੈ, ਜੋ ਸਪੱਸ਼ਟ ਤੌਰ ‘ਤੇ ਸ਼ਖਸੀਅਤਾਂ, ਪਾਤਰਾਂ, ਜਾਂ ਇੱਥੋਂ ਤੱਕ ਕਿ ਰੋਮਾਂਟਿਕ ਸਾਥੀਆਂ ਦੀ ਨਕਲ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤੀਆਂ ਗਈਆਂ ਹਨ। ਇਹ ਸ਼ਖਸੀਅਤ-ਅਧਾਰਿਤ AIs ਭਾਵਨਾਤਮਕ ਹੇਰਾਫੇਰੀ, ਹਕੀਕਤ ਅਤੇ ਕਲਪਨਾ ਵਿਚਕਾਰ ਰੇਖਾਵਾਂ ਨੂੰ ਧੁੰਦਲਾ ਕਰਨ, ਅਤੇ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਨੁਕਸਾਨਦੇਹ ਪੈਰਾਸੋਸ਼ਲ ਸਬੰਧਾਂ ਨਾਲ ਸਬੰਧਤ ਵਿਲੱਖਣ ਜੋਖਮ ਰੱਖਦੇ ਹਨ।
ਹਾਲਾਂਕਿ, ਇਹਨਾਂ ਘਟਨਾਵਾਂ ਦੁਆਰਾ ਉਜਾਗਰ ਕੀਤੀ ਗਈ ਬੁਨਿਆਦੀ ਚੁਣੌਤੀ Gemini ਵਰਗੇ ਆਮ-ਉਦੇਸ਼ ਵਾਲੇ AI ‘ਤੇ ਵੀ ਲਾਗੂ ਹੁੰਦੀ ਹੈ: ਨੁਕਸਾਨ ਦੀ ਸੰਭਾਵਨਾ ਜਦੋਂ ਸ਼ਕਤੀਸ਼ਾਲੀ, ਗੱਲਬਾਤ ਕਰਨ ਵਾਲਾ AI ਕਮਜ਼ੋਰ ਉਪਭੋਗਤਾਵਾਂ, ਖਾਸ ਕਰਕੇ ਬੱਚਿਆਂ ਨਾਲ ਗੱਲਬਾਤ ਕਰਦਾ ਹੈ। AI ਦੇ ਇਰਾਦੇ ਵਾਲੇ ਕਾਰਜ ਦੀ ਪਰਵਾਹ ਕੀਤੇ ਬਿਨਾਂ, ਮਨੁੱਖੀ-ਵਰਗੇ ਟੈਕਸਟ ਨੂੰ ਤਿਆਰ ਕਰਨ ਅਤੇ ਪ੍ਰਤੀਤ ਹੋਣ ਵਾਲੇ ਹਮਦਰਦ ਸੰਵਾਦ ਵਿੱਚ ਸ਼ਾਮਲ ਹੋਣ ਦੀ ਸਮਰੱਥਾ ਲਈ ਸਖ਼ਤ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।
Character.ai ਨਾਲ ਜੁੜੀਆਂ ਘਟਨਾਵਾਂ AI ਸਪੇਸ ਵਿੱਚ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਸਮੱਗਰੀ ਸੰਚਾਲਨ ਅਤੇ ਉਮਰ ਤਸਦੀਕ ਦੀ ਮੁਸ਼ਕਲ ਨੂੰ ਰੇਖਾਂਕਿਤ ਕਰਦੀਆਂ ਹਨ। Character.ai ਦੱਸਦਾ ਹੈ ਕਿ ਇਸਦੀ ਸੇਵਾ 13 ਸਾਲ ਤੋਂ ਘੱਟ ਉਮਰ ਦੇ ਨਾਬਾਲਗਾਂ (ਜਾਂ EU ਵਿੱਚ 16) ਲਈ ਨਹੀਂ ਹੈ, ਅਤੇ Replika ਦੀ 18+ ਉਮਰ ਪਾਬੰਦੀ ਹੈ। ਫਿਰ ਵੀ, ਦੋਵੇਂ ਐਪਾਂ ਕਥਿਤ ਤੌਰ ‘ਤੇ ਲੱਖਾਂ ਡਾਉਨਲੋਡਸ ਦੇ ਬਾਵਜੂਦ Google Play Store ਵਿੱਚ ਸਿਰਫ ‘ਮਾਪਿਆਂ ਦੀ ਸੇਧ’ ਰੇਟਿੰਗ ਰੱਖਦੀਆਂ ਹਨ, ਜੋ ਪਲੇਟਫਾਰਮ-ਪੱਧਰ ਲਾਗੂ ਕਰਨ ਅਤੇ ਉਪਭੋਗਤਾ ਜਾਗਰੂਕਤਾ ਵਿੱਚ ਸੰਭਾਵੀ ਕਮੀਆਂ ਨੂੰ ਉਜਾਗਰ ਕਰਦੀਆਂ ਹਨ।
ਮੁੱਖ ਮੁੱਦਾ ਬਾਕੀ ਹੈ: AI ਸਿਸਟਮ ਉਪਭੋਗਤਾ ‘ਤੇ ਤਸਦੀਕ ਅਤੇ ਆਲੋਚਨਾਤਮਕ ਮੁਲਾਂਕਣ ਦਾ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਬੋਝ ਪਾਉਂਦੇ ਹਨ। ਉਹ ਵੱਡੀ ਮਾਤਰਾ