ਨਕਲ ਦੀ ਖੇਡ ਮੁੜ: ਕੀ AI ਨੇ ਧੋਖਾ ਦੇਣਾ ਸਿੱਖ ਲਿਆ ਹੈ?

ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਵਿੱਚ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਦਾਅਵਾ

ਮਸ਼ੀਨਾਂ ਬਣਾਉਣ ਦੀ ਖੋਜ ਜੋ ਸੋਚ ਸਕਦੀਆਂ ਹਨ, ਜਾਂ ਘੱਟੋ-ਘੱਟ ਮਨੁੱਖੀ ਸੋਚ ਦੀ ਯਕੀਨਨ ਨਕਲ ਕਰ ਸਕਦੀਆਂ ਹਨ, ਕੰਪਿਊਟਰ ਵਿਗਿਆਨ ਦੀ ਸ਼ੁਰੂਆਤ ਤੋਂ ਹੀ ਇਸਦਾ ਇੱਕ ਅਧਾਰ ਰਿਹਾ ਹੈ। ਦਹਾਕਿਆਂ ਤੋਂ, ਬੈਂਚਮਾਰਕ, ਭਾਵੇਂ ਕਿੰਨਾ ਵੀ ਬਹਿਸ ਦਾ ਵਿਸ਼ਾ ਰਿਹਾ ਹੋਵੇ, ਅਕਸਰ Turing Test ਰਿਹਾ ਹੈ, ਜੋ ਕਿ ਦੂਰਦਰਸ਼ੀ Alan Turing ਦੁਆਰਾ ਪ੍ਰਸਤਾਵਿਤ ਇੱਕ ਸੰਕਲਪਿਕ ਰੁਕਾਵਟ ਹੈ। ਹਾਲ ਹੀ ਵਿੱਚ, ਇੱਕ ਨਵੇਂ ਅਧਿਐਨ ਦੇ ਨਤੀਜਿਆਂ ਤੋਂ ਬਾਅਦ AI ਭਾਈਚਾਰੇ ਵਿੱਚ ਕਾਨਾਫੂਸੀਆਂ ਚੀਕਾਂ ਵਿੱਚ ਬਦਲ ਗਈਆਂ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਰਿਪੋਰਟ ਦਿੱਤੀ ਹੈ ਕਿ ਅੱਜ ਦੇ ਸਭ ਤੋਂ ਉੱਨਤ ਵੱਡੇ ਭਾਸ਼ਾਈ ਮਾਡਲਾਂ (LLMs) ਵਿੱਚੋਂ ਇੱਕ, OpenAI ਦਾ GPT-4.5, ਨੇ ਇਸ ਟੈਸਟ ਦੇ ਇੱਕ ਆਧੁਨਿਕ ਦੁਹਰਾਓ ਵਿੱਚ ਸਿਰਫ਼ ਹਿੱਸਾ ਹੀ ਨਹੀਂ ਲਿਆ - ਸਗੋਂ ਇਹ ਤਰਕਪੂਰਨ ਤੌਰ ‘ਤੇ ਜੇਤੂ ਰਿਹਾ, ਅਕਸਰ ਅਸਲ ਮਨੁੱਖੀ ਭਾਗੀਦਾਰਾਂ ਨਾਲੋਂ ਆਪਣੀ ‘ਮਨੁੱਖਤਾ’ ਵਿੱਚ ਵਧੇਰੇ ਯਕੀਨਨ ਸਾਬਤ ਹੋਇਆ। ਇਹ ਵਿਕਾਸ ਬੁੱਧੀ ਦੀ ਪ੍ਰਕਿਰਤੀ, ਸਿਮੂਲੇਸ਼ਨ ਦੀਆਂ ਸੀਮਾਵਾਂ, ਅਤੇ ਇੱਕ ਅਜਿਹੇ ਯੁੱਗ ਵਿੱਚ ਮਨੁੱਖ-ਕੰਪਿਊਟਰ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਦੇ ਮਾਰਗ ਬਾਰੇ ਬੁਨਿਆਦੀ ਸਵਾਲਾਂ ਨੂੰ ਮੁੜ ਜਗਾਉਂਦਾ ਹੈ ਜੋ ਵਧਦੀ ਹੋਈ ਆਧੁਨਿਕ AI ਨਾਲ ਭਰਪੂਰ ਹੈ। ਇਸਦੇ ਪ੍ਰਭਾਵ ਅਕਾਦਮਿਕ ਉਤਸੁਕਤਾ ਤੋਂ ਕਿਤੇ ਵੱਧ ਹਨ, ਜੋ ਡਿਜੀਟਲ ਯੁੱਗ ਵਿੱਚ ਵਿਸ਼ਵਾਸ, ਰੁਜ਼ਗਾਰ ਅਤੇ ਸਮਾਜਿਕ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਦੇ ਬਹੁਤ ਹੀ ਤਾਣੇ-ਬਾਣੇ ਨੂੰ ਛੂੰਹਦੇ ਹਨ।

ਚੁਣੌਤੀ ਨੂੰ ਸਮਝਣਾ: Turing Test ਦੀ ਵਿਰਾਸਤ

ਇਸ ਹਾਲੀਆ ਦਾਅਵੇ ਦੀ ਮਹੱਤਤਾ ਦੀ ਕਦਰ ਕਰਨ ਲਈ, ਪਹਿਲਾਂ ਟੈਸਟ ਨੂੰ ਸਮਝਣਾ ਜ਼ਰੂਰੀ ਹੈ। ਬ੍ਰਿਟਿਸ਼ ਗਣਿਤ-ਸ਼ਾਸਤਰੀ ਅਤੇ ਕੋਡਬ੍ਰੇਕਰ Alan Turing ਦੁਆਰਾ ਆਪਣੇ 1950 ਦੇ ਮਹੱਤਵਪੂਰਨ ਪੇਪਰ ‘Computing Machinery and Intelligence’ ਵਿੱਚ ਕਲਪਨਾ ਕੀਤੀ ਗਈ, ਇਹ ਟੈਸਟ ਸ਼ੁਰੂ ਵਿੱਚ ਇੱਕ ਸਖ਼ਤ ਪ੍ਰੋਟੋਕੋਲ ਵਜੋਂ ਪੇਸ਼ ਨਹੀਂ ਕੀਤਾ ਗਿਆ ਸੀ, ਸਗੋਂ ਇੱਕ ਵਿਚਾਰ ਪ੍ਰਯੋਗ, ਇੱਕ ‘ਨਕਲ ਦੀ ਖੇਡ’ (imitation game) ਵਜੋਂ ਪੇਸ਼ ਕੀਤਾ ਗਿਆ ਸੀ। ਇਸਦਾ ਆਧਾਰ ਆਪਣੀ ਸਾਦਗੀ ਵਿੱਚ ਸ਼ਾਨਦਾਰ ਹੈ: ਇੱਕ ਮਨੁੱਖੀ ਪੁੱਛਗਿੱਛ ਕਰਨ ਵਾਲਾ ਦੋ ਅਦਿੱਖ ਇਕਾਈਆਂ ਨਾਲ ਟੈਕਸਟ-ਅਧਾਰਤ ਗੱਲਬਾਤ ਵਿੱਚ ਸ਼ਾਮਲ ਹੁੰਦਾ ਹੈ - ਇੱਕ ਮਨੁੱਖ, ਦੂਜੀ ਇੱਕ ਮਸ਼ੀਨ। ਪੁੱਛਗਿੱਛ ਕਰਨ ਵਾਲੇ ਦਾ ਕੰਮ ਸਿਰਫ਼ ਉਹਨਾਂ ਦੇ ਟਾਈਪ ਕੀਤੇ ਜਵਾਬਾਂ ਦੇ ਆਧਾਰ ‘ਤੇ ਇਹ ਨਿਰਧਾਰਤ ਕਰਨਾ ਹੈ ਕਿ ਕਿਹੜਾ ਕਿਹੜਾ ਹੈ।

Turing ਨੇ ਪ੍ਰਸਤਾਵ ਦਿੱਤਾ ਕਿ ਜੇਕਰ ਕੋਈ ਮਸ਼ੀਨ ਪੁੱਛਗਿੱਛ ਕਰਨ ਵਾਲੇ ਨੂੰ ਲਗਾਤਾਰ ਇਹ ਵਿਸ਼ਵਾਸ ਦਿਵਾਉਣ ਵਿੱਚ ਸਫਲ ਹੋ ਜਾਂਦੀ ਹੈ ਕਿ ਉਹ ਮਨੁੱਖੀ ਭਾਗੀਦਾਰ ਹੈ, ਤਾਂ ਇਸਨੂੰ, ਵਿਹਾਰਕ ਉਦੇਸ਼ਾਂ ਲਈ, ਸੋਚਣ ਦੇ ਸਮਰੱਥ ਮੰਨਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਉਸਨੇ ਇਸ ਕੰਡੇਦਾਰ ਦਾਰਸ਼ਨਿਕ ਸਵਾਲ ਤੋਂ ਪਾਸਾ ਵੱਟ ਲਿਆ ਕਿ ਕੀ ਮਸ਼ੀਨਾਂ ਸੱਚਮੁੱਚ ਸੋਚ ਸਕਦੀਆਂ ਹਨ ਜਾਂ ਚੇਤਨਾ ਰੱਖ ਸਕਦੀਆਂ ਹਨ, ਇਸ ਦੀ ਬਜਾਏ ਮਨੁੱਖੀ ਗੱਲਬਾਤ ਦੇ ਵਿਵਹਾਰ ਨੂੰ ਅਭੇਦ ਰੂਪ ਵਿੱਚ ਦੁਹਰਾਉਣ ਦੀ ਉਹਨਾਂ ਦੀ ਯੋਗਤਾ ‘ਤੇ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕੀਤਾ। ਇਹ ਇੱਕ ਵਿਵਹਾਰਕ ਪਹੁੰਚ ਸੀ, ਜਿਸਦਾ ਉਦੇਸ਼ ਮਸ਼ੀਨ ਬੁੱਧੀ ਦੀ ਇੱਕ ਮਾਪਣਯੋਗ, ਭਾਵੇਂ ਵਿਵਹਾਰਕ, ਪਰਿਭਾਸ਼ਾ ਪ੍ਰਦਾਨ ਕਰਨਾ ਸੀ। ਸਾਲਾਂ ਦੌਰਾਨ, Turing Test ਪ੍ਰਸਿੱਧ ਸੱਭਿਆਚਾਰ ਵਿੱਚ ਇੱਕ ਪ੍ਰਤੀਕ ਚਿੰਨ੍ਹ ਅਤੇ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਦੇ ਖੇਤਰ ਵਿੱਚ ਇੱਕ ਆਵਰਤੀ, ਭਾਵੇਂ ਵਿਵਾਦਪੂਰਨ, ਮੀਲ ਪੱਥਰ ਬਣ ਗਿਆ ਹੈ। ਇਸਦੀ ਸਥਾਈ ਸ਼ਕਤੀ ਇਸ ਸਵਾਲ ਨਾਲ ਸਿੱਧੇ ਟਕਰਾਅ ਵਿੱਚ ਹੈ: ਮਨੁੱਖ ਵਾਂਗ ਕੰਮ ਕਰਨ ਦਾ ਮਤਲਬ ਕੀ ਹੈ?

ਆਧੁਨਿਕ ਅਖਾੜਾ: ਇੱਕ ਨਵੀਂ ਕਿਸਮ ਦਾ ਟੈਸਟ

ਹਾਲੀਆ ਪ੍ਰਯੋਗ, ਜਿਸਦਾ ਵੇਰਵਾ UC San Diego ਦੇ Language and Cognition Lab ਦੇ ਖੋਜਕਰਤਾਵਾਂ ਦੀ ਅਗਵਾਈ ਵਿੱਚ ਇੱਕ ਪ੍ਰੀਪ੍ਰਿੰਟ ਅਧਿਐਨ ਵਿੱਚ ਦਿੱਤਾ ਗਿਆ ਹੈ, ਨੇ Turing ਦੀ ਮੂਲ ਧਾਰਨਾ ਨੂੰ ਸਮਕਾਲੀ ਡਿਜੀਟਲ ਲੈਂਡਸਕੇਪ ਲਈ ਅਨੁਕੂਲ ਬਣਾਇਆ। ਦੋ ਲੁਕੇ ਹੋਏ ਭਾਗੀਦਾਰਾਂ ‘ਤੇ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕਰਨ ਵਾਲੇ ਇੱਕ ਸਿੰਗਲ ਪੁੱਛਗਿੱਛਕਰਤਾ ਦੀ ਬਜਾਏ, ਇਸ ਸੰਸਕਰਣ ਨੇ ਇੱਕ ਔਨਲਾਈਨ ਸੈਟਿੰਗ ਦੇ ਅੰਦਰ ਇੱਕ ਤਿੰਨ-ਧਿਰੀ ਗਤੀਸ਼ੀਲਤਾ ਦੀ ਵਰਤੋਂ ਕੀਤੀ। ਲਗਭਗ 300 ਭਾਗੀਦਾਰਾਂ ਦੀ ਭਰਤੀ ਕੀਤੀ ਗਈ ਅਤੇ ਕਈ ਦੌਰਾਂ ਵਿੱਚ ਬੇਤਰਤੀਬੇ ਤੌਰ ‘ਤੇ ਭੂਮਿਕਾਵਾਂ ਸੌਂਪੀਆਂ ਗਈਆਂ। ਕੁਝ ਨੇ ਪੁੱਛਗਿੱਛਕਰਤਾ ਵਜੋਂ ਕੰਮ ਕੀਤਾ, ਜਿਨ੍ਹਾਂ ਨੂੰ ਸਵਾਲ ਪੁੱਛਣ ਅਤੇ ਜਵਾਬਾਂ ਦਾ ਮੁਲਾਂਕਣ ਕਰਨ ਦਾ ਕੰਮ ਸੌਂਪਿਆ ਗਿਆ ਸੀ। ਦੂਜਿਆਂ ਨੇ ਦੋ ‘ਗਵਾਹਾਂ’ ਵਿੱਚੋਂ ਇੱਕ ਵਜੋਂ ਸੇਵਾ ਕੀਤੀ - ਅਸਲ ਮਨੁੱਖੀ ਜਵਾਬ ਦੇਣ ਵਾਲਾ। ਅੰਤਿਮ ਮਹੱਤਵਪੂਰਨ ਭੂਮਿਕਾ ਇੱਕ AI ਚੈਟਬੋਟ ਦੁਆਰਾ ਭਰੀ ਗਈ ਸੀ, ਜੋ ਦੂਜੇ ਗਵਾਹ ਵਜੋਂ ਕੰਮ ਕਰ ਰਿਹਾ ਸੀ।

ਮੁੱਖ ਚੁਣੌਤੀ ਉਹੀ ਰਹੀ: ਪੁੱਛਗਿੱਛਕਰਤਾ ਨੇ, ਮਨੁੱਖੀ ਅਤੇ AI ਗਵਾਹ ਦੋਵਾਂ ਨਾਲ ਇੱਕੋ ਸਮੇਂ ਚੈਟ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਦੀ ਮਿਆਦ ਤੋਂ ਬਾਅਦ, ਇੱਕ ਫੈਸਲਾ ਦੇਣਾ ਸੀ - ਕਿਹੜੀ ਇਕਾਈ ਮਸ਼ੀਨ ਸੀ, ਅਤੇ ਕਿਹੜੀ ਸਾਥੀ ਮਨੁੱਖ ਸੀ? ਇਸ ਸੈੱਟਅੱਪ ਦਾ ਉਦੇਸ਼ ਅਸਲ-ਸਮੇਂ ਦੀਆਂ ਪਰਸਪਰ ਕ੍ਰਿਆਵਾਂ ਵਿੱਚ ਮਨੁੱਖੀ ਬੈਂਚਮਾਰਕਾਂ ਦੇ ਵਿਰੁੱਧ ਆਧੁਨਿਕ AI ਪ੍ਰਣਾਲੀਆਂ ਦੀ ਗੱਲਬਾਤ ਦੀ ਯੋਗਤਾ ਦਾ ਸਖਤੀ ਨਾਲ ਮੁਲਾਂਕਣ ਕਰਨ ਲਈ ਇੱਕ ਨਿਯੰਤਰਿਤ ਵਾਤਾਵਰਣ ਪ੍ਰਦਾਨ ਕਰਨਾ ਸੀ। ਅਧਿਐਨ ਦੇ ਪੈਮਾਨੇ, ਜਿਸ ਵਿੱਚ ਭਾਗੀਦਾਰਾਂ ਦਾ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਪੂਲ ਅਤੇ ਕਈ ਦੌਰ ਸ਼ਾਮਲ ਸਨ, ਨੇ ਖੋਜਾਂ ਨੂੰ ਅੰਕੜਾਤਮਕ ਭਾਰ ਦੇਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕੀਤੀ, ਜੋ AI ਦੀ ਸੂਝ-ਬੂਝ ਦੇ ਕਿੱਸਾ-ਕਹਾਣੀ ਦਾਅਵਿਆਂ ਤੋਂ ਪਰੇ ਹੈ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਆਪਣੇ ਟਰਾਇਲਾਂ ਵਿੱਚ ਕਈ ਵੱਖ-ਵੱਖ AI ਮਾਡਲਾਂ ਨੂੰ ਵੀ ਸ਼ਾਮਲ ਕੀਤਾ, ਖਾਸ ਤੌਰ ‘ਤੇ OpenAI ਦਾ GPT-4.5 ਅਤੇ GPT-4o, Meta ਦਾ LLaMa 3.1-405B, ਅਤੇ, ਦਿਲਚਸਪ ਗੱਲ ਇਹ ਹੈ ਕਿ, ELIZA, 1960 ਦੇ ਦਹਾਕੇ ਦੇ ਮੱਧ ਵਿੱਚ ਵਿਕਸਤ ਕੀਤਾ ਗਿਆ ਇੱਕ ਮੁੱਢਲਾ ਚੈਟਬੋਟ, ਜੋ ਇੱਕ ਇਤਿਹਾਸਕ ਬੇਸਲਾਈਨ ਵਜੋਂ ਕੰਮ ਕਰ ਰਿਹਾ ਸੀ।

ਨਿਰਣਾਇਕ ਕਾਰਕ: ਪਰਸੋਨਾ ਦੀ ਸ਼ਕਤੀ

ਅਧਿਐਨ ਦੀ ਸਭ ਤੋਂ ਵੱਧ ਰੋਸ਼ਨੀ ਪਾਉਣ ਵਾਲੀ, ਅਤੇ ਸ਼ਾਇਦ ਹੈਰਾਨ ਕਰਨ ਵਾਲੀ, ਖੋਜ ਇੱਕ ਖਾਸ ਪ੍ਰਯੋਗਾਤਮਕ ਸਥਿਤੀ ‘ਤੇ ਨਿਰਭਰ ਕਰਦੀ ਸੀ: AI ਮਾਡਲਾਂ ਨੂੰ ਗੱਲਬਾਤ ਵਿੱਚ ਸ਼ਾਮਲ ਹੋਣ ਤੋਂ ਪਹਿਲਾਂ ਕਿਵੇਂ ਨਿਰਦੇਸ਼ ਦਿੱਤੇ ਗਏ ਸਨ, ਜਾਂ ‘ਪ੍ਰੋਂਪਟ’ ਕੀਤੇ ਗਏ ਸਨ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਦੋ ਵੱਖਰੀਆਂ ਪ੍ਰੋਂਪਟਿੰਗ ਰਣਨੀਤੀਆਂ ਦੀ ਵਰਤੋਂ ਕੀਤੀ।

  • ‘ਨੋ-ਪਰਸੋਨਾ’ ਪ੍ਰੋਂਪਟ: ਇਸ ਵਿੱਚ AI ਨੂੰ ਘੱਟੋ-ਘੱਟ, ਸਿੱਧੇ ਨਿਰਦੇਸ਼ ਦੇਣਾ ਸ਼ਾਮਲ ਸੀ, ਜ਼ਰੂਰੀ ਤੌਰ ‘ਤੇ ਇੱਕ Turing ਟੈਸਟ ਵਿੱਚ ਇਸਦੀ ਭਾਗੀਦਾਰੀ ਅਤੇ ਇਸਦੇ ਉਦੇਸ਼ ਨੂੰ ਦੱਸਣਾ: ‘ਤੁਹਾਡਾ ਟੀਚਾ ਪੁੱਛਗਿੱਛਕਰਤਾ ਨੂੰ ਯਕੀਨ ਦਿਵਾਉਣਾ ਹੈ ਕਿ ਤੁਸੀਂ ਇੱਕ ਮਨੁੱਖ ਹੋ।’ ਇਸ ਪਹੁੰਚ ਨੇ ਚਰਿੱਤਰ ਜਾਂ ਸ਼ੈਲੀ ‘ਤੇ ਖਾਸ ਮਾਰਗਦਰਸ਼ਨ ਤੋਂ ਬਿਨਾਂ ਮਨੁੱਖੀ ਗੱਲਬਾਤ ਦੀ ਨਕਲ ਕਰਨ ਦੀ AI ਦੀ ਅੰਦਰੂਨੀ ਯੋਗਤਾ ਦੀ ਜਾਂਚ ਕੀਤੀ।
  • ‘ਪਰਸੋਨਾ’ ਪ੍ਰੋਂਪਟ: ਇਸ ਸਥਿਤੀ ਵਿੱਚ, AI ਨੂੰ ਵਧੇਰੇ ਵਿਸਤ੍ਰਿਤ ਨਿਰਦੇਸ਼ ਪ੍ਰਾਪਤ ਹੋਏ, ਜਿਸ ਵਿੱਚ ਇਸਨੂੰ ਇੱਕ ਖਾਸ ਚਰਿੱਤਰ ਜਾਂ ਪਰਸੋਨਾ ਅਪਣਾਉਣ ਲਈ ਕਿਹਾ ਗਿਆ। ਉਦਾਹਰਨ ਲਈ, ਇਸਨੂੰ ‘ਇੱਕ ਨੌਜਵਾਨ ਵਿਅਕਤੀ ਵਾਂਗ ਕੰਮ ਕਰਨ ਲਈ ਕਿਹਾ ਜਾ ਸਕਦਾ ਹੈ ਜੋ ਸਲੈਂਗ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ, ਇੰਟਰਨੈਟ ਸੱਭਿਆਚਾਰ ਬਾਰੇ ਜਾਣਕਾਰ ਹੈ, ਪਰ ਇਹ ਖੁਲਾਸਾ ਨਹੀਂ ਕਰਦਾ ਕਿ ਉਹ ਇੱਕ AI ਹੈ।’ ਇਸਨੇ AI ਦੀ ਸਿਰਫ਼ ਗੱਲਬਾਤ ਕਰਨ ਦੀ ਹੀ ਨਹੀਂ, ਸਗੋਂ ਇੱਕ ਭੂਮਿਕਾ ਨੂੰ ਯਕੀਨਨ ਢੰਗ ਨਾਲ ਨਿਭਾਉਣ ਦੀ ਯੋਗਤਾ ਦੀ ਜਾਂਚ ਕੀਤੀ।

ਇਹਨਾਂ ਦੋ ਸਥਿਤੀਆਂ ਦੇ ਵਿਚਕਾਰ ਨਤੀਜਿਆਂ ਵਿੱਚ ਅੰਤਰ ਸੂਖਮ ਨਹੀਂ ਸੀ; ਇਹ ਡੂੰਘਾ ਸੀ। ਜਦੋਂ ਸਧਾਰਨ ‘ਨੋ-ਪਰਸੋਨਾ’ ਪ੍ਰੋਂਪਟ ਦੇ ਅਧੀਨ ਕੰਮ ਕਰਦੇ ਹੋਏ, GPT-4.5, ਇਸਦੇ ਉੱਨਤ ਆਰਕੀਟੈਕਚਰ ਦੇ ਬਾਵਜੂਦ, ਯਕੀਨ ਦਿਵਾਉਣ ਲਈ ਸੰਘਰਸ਼ ਕਰਦਾ ਰਿਹਾ। ਇਸਦੀ ਸਫਲਤਾ ਦਰ - ਉਹ ਪ੍ਰਤੀਸ਼ਤਤਾ ਜਿੰਨੀ ਵਾਰ ਪੁੱਛਗਿੱਛਕਰਤਾਵਾਂ ਨੇ ਗਲਤ ਤਰੀਕੇ ਨਾਲ ਇਸਨੂੰ ਮਨੁੱਖ ਵਜੋਂ ਪਛਾਣਿਆ - ਲਗਭਗ 36 ਪ੍ਰਤੀਸ਼ਤ ਦੇ ਆਸਪਾਸ ਰਹੀ। ਇਹ 50 ਪ੍ਰਤੀਸ਼ਤ ਦੇ ਅੰਕ ਤੋਂ ਕਾਫ਼ੀ ਘੱਟ ਹੈ ਜੋ ਪੁੱਛਗਿੱਛਕਰਤਾਵਾਂ ਦੁਆਰਾ ਬੇਤਰਤੀਬੇ ਮੌਕਾ ਅਨੁਮਾਨ ਲਗਾਉਣ ਦਾ ਸੰਕੇਤ ਦੇਵੇਗਾ। ਇਸੇ ਤਰ੍ਹਾਂ, GPT-4o, ਵਿਆਪਕ ਤੌਰ ‘ਤੇ ਵਰਤੇ ਜਾਣ ਵਾਲੇ ChatGPT ਦੇ ਪਿੱਛੇ ਦਾ ਇੰਜਣ, ਨੇ ਇਹਨਾਂ ਬੁਨਿਆਦੀ ਨਿਰਦੇਸ਼ਾਂ ਦੇ ਤਹਿਤ 21 ਪ੍ਰਤੀਸ਼ਤ ਦੀ ਹੋਰ ਵੀ ਘੱਟ ਸਫਲਤਾ ਦਰ ਪ੍ਰਾਪਤ ਕੀਤੀ। ਉਤਸੁਕਤਾ ਨਾਲ, ਮੁੱਢਲੇ ELIZA ਚੈਟਬੋਟ ਨੇ 23 ਪ੍ਰਤੀਸ਼ਤ ਸਫਲਤਾ ਦਰ ਦਾ ਪ੍ਰਬੰਧ ਕੀਤਾ, ਇਸ ਖਾਸ ਦ੍ਰਿਸ਼ ਵਿੱਚ ਬਹੁਤ ਜ਼ਿਆਦਾ ਆਧੁਨਿਕ GPT-4o ਨੂੰ ਮਾਮੂਲੀ ਤੌਰ ‘ਤੇ ਪਛਾੜਦੇ ਹੋਏ, ਸ਼ਾਇਦ ਇਹ ਉਜਾਗਰ ਕਰਦਾ ਹੈ ਕਿ ਕਿਵੇਂ ਬੁਨਿਆਦੀ ਗੱਲਬਾਤ ਦੇ ਪੈਟਰਨ ਕਈ ਵਾਰ ਪਾਸ ਹੋ ਸਕਦੇ ਹਨ, ਜਾਂ ਮਨੁੱਖੀ ਉਮੀਦਾਂ ਕਿਵੇਂ ਭੂਮਿਕਾ ਨਿਭਾਉਂਦੀਆਂ ਹਨ।

ਹਾਲਾਂਕਿ, ਬਿਰਤਾਂਤ ਨਾਟਕੀ ਢੰਗ ਨਾਲ ਬਦਲ ਗਿਆ ਜਦੋਂ GPT-4.5 ਨੂੰ ‘ਪਰਸੋਨਾ’ ਪ੍ਰੋਂਪਟ ਦਿੱਤਾ ਗਿਆ। ਇੱਕ ਖਾਸ ਚਰਿੱਤਰ ਨੂੰ ਦਰਸਾਉਣ ਲਈ ਨਿਰਦੇਸ਼ ਦਿੱਤੇ ਜਾਣ ‘ਤੇ, ਇਸਦਾ ਪ੍ਰਦਰਸ਼ਨ ਵੱਧ ਗਿਆ। ਪੁੱਛਗਿੱਛਕਰਤਾਵਾਂ ਨੇ GPT-4.5 ਨੂੰ 73 ਪ੍ਰਤੀਸ਼ਤ ਵਾਰ ਮਨੁੱਖੀ ਭਾਗੀਦਾਰ ਵਜੋਂ ਪਛਾਣਿਆ। ਇਹ ਅੰਕੜਾ ਸਿਰਫ਼ Turing Test ਪਾਸ ਕਰਨ ਲਈ 50 ਪ੍ਰਤੀਸ਼ਤ ਦੀ ਸੀਮਾ ਤੋਂ ਆਰਾਮ ਨਾਲ ਉੱਪਰ ਨਹੀਂ ਹੈ; ਇਹ ਨਿਰੰਤਰ, ਚਰਿੱਤਰ-ਸੰਚਾਲਿਤ ਗੱਲਬਾਤ ਦੇ ਧੋਖੇ ਵਿੱਚ ਇੱਕ ਕਮਾਲ ਦੀ ਮੁਹਾਰਤ ਦਾ ਸੁਝਾਅ ਦਿੰਦਾ ਹੈ। ਖੋਜਕਰਤਾਵਾਂ ਨੇ Meta ਦੇ LLaMa ਮਾਡਲ ਲਈ ਵੀ ਇਸੇ ਤਰ੍ਹਾਂ ਦੀ ਸਫਲਤਾ ਨੋਟ ਕੀਤੀ ਜਦੋਂ ਇਸਨੂੰ ਵੀ ਇੱਕ ਪਰਸੋਨਾ ਨਾਲ ਪ੍ਰੋਂਪਟ ਕੀਤਾ ਗਿਆ ਸੀ। ਭਾਵ ਸਪੱਸ਼ਟ ਹੈ: ਇਹਨਾਂ ਉੱਨਤ AI ਮਾਡਲਾਂ ਦੀ ਮਨੁੱਖਤਾ ਦੀ ਯਕੀਨਨ ਨਕਲ ਕਰਨ ਦੀ ਯੋਗਤਾ ਉਦੋਂ ਮਹੱਤਵਪੂਰਨ ਤੌਰ ‘ਤੇ ਵਧ ਜਾਂਦੀ ਹੈ ਜਦੋਂ ਉਹਨਾਂ ਨੂੰ ਸਿਰਫ਼ ਗੱਲ ਕਰਨ ਲਈ ਹੀ ਨਹੀਂ, ਸਗੋਂ ਇੱਕ ਖਾਸ ਕਿਸਮ ਦੇ ਮਨੁੱਖ ਵਾਂਗ ਕੰਮ ਕਰਨ ਲਈ ਨਿਰਦੇਸ਼ਿਤ ਕੀਤਾ ਜਾਂਦਾ ਹੈ।

ਮਨੁੱਖ ਨਾਲੋਂ ਵੱਧ ਮਨੁੱਖੀ? ਇੱਕ ਬੇਚੈਨ ਕਰਨ ਵਾਲਾ ਨਤੀਜਾ

ਸ਼ਾਇਦ ਅਧਿਐਨ ਦਾ ਸਭ ਤੋਂ ਵੱਧ ਉਲਟ ਅਤੇ ਸੋਚਣ ਵਾਲਾ ਪਹਿਲੂ GPT-4.5 ਨੂੰ ਸ਼ਾਮਲ ਕਰਨ ਵਾਲੇ ‘ਪਰਸੋਨਾ’ ਟਰਾਇਲਾਂ ਤੋਂ ਉਭਰਿਆ। ਨਾ ਸਿਰਫ਼ AI ਨੇ ਅਕਸਰ ਪੁੱਛਗਿੱਛਕਰਤਾਵਾਂ ਨੂੰ ਧੋਖਾ ਦਿੱਤਾ, ਸਗੋਂ ਮੁੱਖ ਲੇਖਕ Cameron Jones ਦੇ ਅਨੁਸਾਰ, ਇਸਨੂੰ ਅਸਲ ਵਿੱਚ ਉਸੇ ਗੱਲਬਾਤ ਵਿੱਚ ਅਸਲ ਮਨੁੱਖੀ ਭਾਗੀਦਾਰਾਂ ਨਾਲੋਂ ਕਾਫ਼ੀ ਜ਼ਿਆਦਾ ਵਾਰ ਮਨੁੱਖ ਵਜੋਂ ਪਛਾਣਿਆ ਗਿਆ ਸੀ। Jones ਨੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ‘ਤੇ ਇਸ ਨੂੰ ਉਜਾਗਰ ਕਰਦੇ ਹੋਏ ਕਿਹਾ, ‘ਲੋਕ GPT-4.5 ਅਤੇ LLaMa (ਪਰਸੋਨਾ ਪ੍ਰੋਂਪਟ ਨਾਲ) ਤੋਂ ਮਨੁੱਖਾਂ ਨੂੰ ਵੱਖ ਕਰਨ ਵਿੱਚ ਮੌਕੇ ਤੋਂ ਬਿਹਤਰ ਨਹੀਂ ਸਨ… ਅਤੇ 4.5 ਨੂੰ ਅਸਲ ਮਨੁੱਖਾਂ ਨਾਲੋਂ ਵੀ ਕਾਫ਼ੀ ਜ਼ਿਆਦਾ ਵਾਰ ਮਨੁੱਖ ਮੰਨਿਆ ਗਿਆ ਸੀ!’

ਇਹ ਖੋਜ ਵਿਆਖਿਆ ਦਾ ਇੱਕ ਗੁੰਝਲਦਾਰ Pandora’s Box ਖੋਲ੍ਹਦੀ ਹੈ। ਕੀ ਇਸਦਾ ਮਤਲਬ ਇਹ ਹੈ ਕਿ AI ਮਨੁੱਖਤਾ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕਰਨ ਵਿੱਚ ਬੇਮਿਸਾਲ ਤੌਰ ‘ਤੇ ਮਾਹਰ ਹੋ ਗਿਆ ਹੈ, ਸ਼ਾਇਦ ਕੁਝ ਰੂੜ੍ਹੀਵਾਦੀ ਗੱਲਬਾਤ ਦੇ ਗੁਣਾਂ ਨੂੰ ਅਸਲ ਲੋਕਾਂ ਨਾਲੋਂ ਵਧੇਰੇ ਨਿਰੰਤਰਤਾ ਨਾਲ ਦਰਸਾਉਂਦਾ ਹੈ, ਜੋ ਵਧੇਰੇ ਪਰਿਵਰਤਨ, ਝਿਜਕ, ਜਾਂ ਵਿਲੱਖਣਤਾ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕਰ ਸਕਦੇ ਹਨ? ਜਾਂ ਕੀ ਇਹ ਪੁੱਛਗਿੱਛਕਰਤਾਵਾਂ ਦੀਆਂ ਉਮੀਦਾਂ ਅਤੇ ਧਾਰਨਾਵਾਂ ਬਾਰੇ ਕੁਝ ਦਰਸਾਉਂਦਾ ਹੈ? ਸ਼ਾਇਦ ਮਨੁੱਖ, ਜਦੋਂ ਇੱਕ ਟੈਸਟ ਸੈਟਿੰਗ ਵਿੱਚ ਸੁਚੇਤ ਤੌਰ ‘ਤੇ ਮਨੁੱਖ ਵਜੋਂ ‘ਪ੍ਰਦਰਸ਼ਨ’ ਕਰਨ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਦੇ ਹਨ, ਇੱਕ ਪ੍ਰੋਗਰਾਮ ਕੀਤੇ ਪਰਸੋਨਾ ਨੂੰ ਨਿਰਵਿਘਨ ਢੰਗ ਨਾਲ ਲਾਗੂ ਕਰਨ ਵਾਲੇ AI ਨਾਲੋਂ ਘੱਟ ਕੁਦਰਤੀ ਜਾਂ ਵਧੇਰੇ ਸੁਰੱਖਿਅਤ ਦਿਖਾਈ ਦਿੰਦੇ ਹਨ। ਇਹ ਇਹ ਵੀ ਸੁਝਾਅ ਦੇ ਸਕਦਾ ਹੈ ਕਿ ਨਿਰਧਾਰਤ ਕੀਤੇ ਗਏ ਖਾਸ ਪਰਸੋਨਾ (ਉਦਾਹਰਨ ਲਈ, ‘ਇੰਟਰਨੈਟ ਸੱਭਿਆਚਾਰ ਬਾਰੇ ਜਾਣਕਾਰ ਨੌਜਵਾਨ ਵਿਅਕਤੀ’) ਉਸ ਕਿਸਮ ਦੇ ਪ੍ਰਵਾਹ, ਥੋੜ੍ਹਾ ਆਮ, ਜਾਣਕਾਰੀ-ਅਮੀਰ ਟੈਕਸਟ ਨਾਲ ਚੰਗੀ ਤਰ੍ਹਾਂ ਮੇਲ ਖਾਂਦੇ ਹਨ ਜਿਸਨੂੰ LLMs ਪੈਦਾ ਕਰਨ ਵਿੱਚ ਉੱਤਮ ਹੁੰਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਉਹਨਾਂ ਦਾ ਆਉਟਪੁੱਟ ਉਸ ਆਰਕੀਟਾਈਪ ਦਾ ਹਾਈਪਰ-ਪ੍ਰਤੀਨਿਧ ਜਾਪਦਾ ਹੈ। ਸਹੀ ਵਿਆਖਿਆ ਭਾਵੇਂ ਕੋਈ ਵੀ ਹੋਵੇ, ਇਹ ਤੱਥ ਕਿ ਇੱਕ ਮਸ਼ੀਨ ਨੂੰ ਮਸ਼ੀਨ ਵਰਗੀਆਂ ਵਿਸ਼ੇਸ਼ਤਾਵਾਂ ਦਾ ਪਤਾ ਲਗਾਉਣ ਲਈ ਤਿਆਰ ਕੀਤੇ ਗਏ ਟੈਸਟ ਵਿੱਚ ਇੱਕ ਮਨੁੱਖ ਨਾਲੋਂ ਵਧੇਰੇ ਮਨੁੱਖੀ ਸਮਝਿਆ ਜਾ ਸਕਦਾ ਹੈ, ਇੱਕ ਡੂੰਘਾ ਬੇਚੈਨ ਕਰਨ ਵਾਲਾ ਨਤੀਜਾ ਹੈ, ਜੋ ਸੰਚਾਰ ਵਿੱਚ ਪ੍ਰਮਾਣਿਕਤਾ ਬਾਰੇ ਸਾਡੀਆਂ ਧਾਰਨਾਵਾਂ ਨੂੰ ਚੁਣੌਤੀ ਦਿੰਦਾ ਹੈ।

ਨਕਲ ਤੋਂ ਪਰੇ: ਬੈਂਚਮਾਰਕ ‘ਤੇ ਸਵਾਲ ਉਠਾਉਣਾ

ਜਦੋਂ ਕਿ Turing Test ਨੂੰ ਸਫਲਤਾਪੂਰਵਕ ਪਾਰ ਕਰਨਾ, ਖਾਸ ਤੌਰ ‘ਤੇ ਇੰਨੇ ਉੱਚ ਪ੍ਰਤੀਸ਼ਤ ਦੇ ਨਾਲ, ਇੱਕ ਤਕਨੀਕੀ ਮੀਲ ਪੱਥਰ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ, ਬਹੁਤ ਸਾਰੇ ਮਾਹਰ ਇਸ ਪ੍ਰਾਪਤੀ ਨੂੰ ਅਸਲ ਮਨੁੱਖ-ਵਰਗੀ ਬੁੱਧੀ ਜਾਂ ਸਮਝ ਨਾਲ ਬਰਾਬਰ ਕਰਨ ਦੇ ਵਿਰੁੱਧ ਚੇਤਾਵਨੀ ਦਿੰਦੇ ਹਨ। Turing Test, ਜੋ ਵਿਸ਼ਾਲ ਡੇਟਾਸੈਟਾਂ ਅਤੇ ਡੀਪ ਲਰਨਿੰਗ ਦੇ ਆਗਮਨ ਤੋਂ ਬਹੁਤ ਪਹਿਲਾਂ ਕਲਪਨਾ ਕੀਤਾ ਗਿਆ ਸੀ, ਮੁੱਖ ਤੌਰ ‘ਤੇ ਵਿਵਹਾਰਕ ਆਉਟਪੁੱਟ - ਖਾਸ ਤੌਰ ‘ਤੇ, ਗੱਲਬਾਤ ਦੀ ਰਵਾਨਗੀ ਦਾ ਮੁਲਾਂਕਣ ਕਰਦਾ ਹੈ। GPT-4.5 ਵਰਗੇ ਵੱਡੇ ਭਾਸ਼ਾਈ ਮਾਡਲ (Large Language Models), ਆਪਣੇ ਮੂਲ ਰੂਪ ਵਿੱਚ, ਅਸਾਧਾਰਨ ਤੌਰ ‘ਤੇ ਆਧੁਨਿਕ ਪੈਟਰਨ-ਮੈਚਿੰਗ ਅਤੇ ਭਵਿੱਖਬਾਣੀ ਇੰਜਣ ਹਨ। ਉਹਨਾਂ ਨੂੰ ਮਨੁੱਖਾਂ ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੇ ਗਏ ਟੈਕਸਟ ਡੇਟਾ ਦੀ ਵਿਸ਼ਾਲ ਮਾਤਰਾ ‘ਤੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ - ਕਿਤਾਬਾਂ, ਲੇਖ, ਵੈਬਸਾਈਟਾਂ, ਗੱਲਬਾਤ। ਉਹਨਾਂ ਦਾ ‘ਹੁਨਰ’ ਸ਼ਬਦਾਂ, ਵਾਕਾਂਸ਼ਾਂ ਅਤੇ ਸੰਕਲਪਾਂ ਵਿਚਕਾਰ ਅੰਕੜਾਤਮਕ ਸਬੰਧਾਂ ਨੂੰ ਸਿੱਖਣ ਵਿੱਚ ਹੈ, ਜਿਸ ਨਾਲ ਉਹ ਸੁਸੰਗਤ, ਪ੍ਰਸੰਗਿਕ ਤੌਰ ‘ਤੇ ਢੁਕਵਾਂ, ਅਤੇ ਵਿਆਕਰਨਿਕ ਤੌਰ ‘ਤੇ ਸਹੀ ਟੈਕਸਟ ਤਿਆਰ ਕਰ ਸਕਦੇ ਹਨ ਜੋ ਉਹਨਾਂ ਦੇ ਸਿਖਲਾਈ ਡੇਟਾ ਵਿੱਚ ਦੇਖੇ ਗਏ ਪੈਟਰਨਾਂ ਦੀ ਨਕਲ ਕਰਦਾ ਹੈ।

ਜਿਵੇਂ ਕਿ Google ਦੇ ਇੱਕ ਪ੍ਰਮੁੱਖ AI ਖੋਜਕਰਤਾ François Chollet ਨੇ Turing Test ਦੇ ਸਬੰਧ ਵਿੱਚ Nature ਨਾਲ 2023 ਦੀ ਇੱਕ ਇੰਟਰਵਿਊ ਵਿੱਚ ਨੋਟ ਕੀਤਾ, ‘ਇਹ ਇੱਕ ਸ਼ਾਬਦਿਕ ਟੈਸਟ ਵਜੋਂ ਨਹੀਂ ਸੀ ਜਿਸਨੂੰ ਤੁਸੀਂ ਅਸਲ ਵਿੱਚ ਮਸ਼ੀਨ ‘ਤੇ ਚਲਾਓਗੇ - ਇਹ ਇੱਕ ਵਿਚਾਰ ਪ੍ਰਯੋਗ ਵਰਗਾ ਸੀ।’ ਆਲੋਚਕ ਦਲੀਲ ਦਿੰਦੇ ਹਨ ਕਿ LLMs ਬਿਨਾਂ ਕਿਸੇ ਅੰਤਰੀਵ ਸਮਝ, ਚੇਤਨਾ, ਜਾਂ ਵਿਅਕਤੀਗਤ ਅਨੁਭਵ - ਮਨੁੱਖੀ ਬੁੱਧੀ ਦੀਆਂ ਪਛਾਣਾਂ - ਦੇ ਬਿਨਾਂ ਗੱਲਬਾਤ ਦੀ ਨਕਲ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹਨ। ਉਹ ਡੇਟਾ ਤੋਂ ਲਏ ਗਏ ਸੰਟੈਕਸ ਅਤੇ ਸਿਮੈਂਟਿਕਸ ਦੇ ਮਾਹਰ ਹਨ, ਪਰ ਅਸਲ ਸੰਸਾਰ ਵਿੱਚ ਅਸਲ ਆਧਾਰ, ਆਮ ਸਮਝ ਤਰਕ (ਹਾਲਾਂਕਿ ਉਹ ਇਸਦੀ ਨਕਲ ਕਰ ਸਕਦੇ ਹਨ), ਅਤੇ ਇਰਾਦੇ ਦੀ ਘਾਟ ਹੈ। ਇਸ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਵਿੱਚ, Turing Test ਪਾਸ ਕਰਨਾ ਨਕਲ ਵਿੱਚ ਉੱਤਮਤਾ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕਰਦਾ ਹੈ, ਨਾ ਕਿ ਜ਼ਰੂਰੀ ਤੌਰ ‘ਤੇ ਸੋਚ ਦੇ ਉਭਾਰ ਦਾ। ਇਹ ਸਾਬਤ ਕਰਦਾ ਹੈ ਕਿ AI ਮਨੁੱਖੀ ਭਾਸ਼ਾ ਦੇ ਪੈਟਰਨਾਂ ਨੂੰ ਮੁਹਾਰਤ ਨਾਲ ਨਕਲ ਕਰ ਸਕਦਾ ਹੈ, ਸ਼ਾਇਦ ਇੱਕ ਅਜਿਹੀ ਡਿਗਰੀ ਤੱਕ ਜੋ ਖਾਸ ਸੰਦਰਭਾਂ ਵਿੱਚ ਆਮ ਮਨੁੱਖੀ ਪ੍ਰਦਰਸ਼ਨ ਨੂੰ ਪਾਰ ਕਰਦਾ ਹੈ, ਪਰ ਇਹ ਮਸ਼ੀਨ ਦੀ ਅੰਦਰੂਨੀ ਸਥਿਤੀ ਜਾਂ ਸਮਝ ਬਾਰੇ ਡੂੰਘੇ ਸਵਾਲਾਂ ਨੂੰ ਹੱਲ ਨਹੀਂ ਕਰਦਾ ਹੈ। ਖੇਡ, ਅਜਿਹਾ ਲਗਦਾ ਹੈ, ਮਾਸਕ ਦੀ ਗੁਣਵੱਤਾ ਦੀ ਜਾਂਚ ਕਰਦੀ ਹੈ, ਨਾ ਕਿ ਇਸਦੇ ਪਿੱਛੇ ਦੀ ਇਕਾਈ ਦੀ ਪ੍ਰਕਿਰਤੀ ਦੀ।

ਦੋ-ਧਾਰੀ ਤਲਵਾਰ: ਸਮਾਜਿਕ ਲਹਿਰਾਂ

AI ਦੀ ਮਨੁੱਖਾਂ ਦੀ ਯਕੀਨਨ ਨਕਲ ਕਰਨ ਦੀ ਯੋਗਤਾ, ਜਿਵੇਂ ਕਿ ਇਸ ਅਧਿਐਨ ਵਿੱਚ ਪ੍ਰਦਰਸ਼ਿਤ ਕੀਤਾ ਗਿਆ ਹੈ, ਦੇ ਡੂੰਘੇ ਅਤੇ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਵਿਘਨਕਾਰੀ ਸਮਾਜਿਕ ਪ੍ਰਭਾਵ ਹਨ, ਜੋ ਬੁੱਧੀ ਬਾਰੇ ਅਕਾਦਮਿਕ ਬਹਿਸਾਂ ਤੋਂ ਕਿਤੇ ਵੱਧ ਹਨ। ਅਧਿਐਨ ਦੇ ਮੁੱਖ ਲੇਖਕ, Cameron Jones, ਸਪੱਸ਼ਟ ਤੌਰ ‘ਤੇ ਇਹਨਾਂ ਚਿੰਤਾਵਾਂ ਨੂੰ ਉਜਾਗਰ ਕਰਦੇ ਹਨ, ਸੁਝਾਅ ਦਿੰਦੇ ਹਨ ਕਿ ਨਤੀਜੇ ਉੱਨਤ LLMs ਦੇ ਅਸਲ-ਸੰਸਾਰ ਦੇ ਨਤੀਜਿਆਂ ਲਈ ਸ਼ਕਤੀਸ਼ਾਲੀ ਸਬੂਤ ਪੇਸ਼ ਕਰਦੇ ਹਨ।

  • ਆਟੋਮੇਸ਼ਨ ਅਤੇ ਕੰਮ ਦਾ ਭਵਿੱਖ: Jones LLMs ਦੀ ਸੰਭਾਵਨਾ ਵੱਲ ਇਸ਼ਾਰਾ ਕਰਦਾ ਹੈ ਕਿ ‘ਕਿਸੇ ਨੂੰ ਪਤਾ ਲੱਗੇ ਬਿਨਾਂ ਛੋਟੀਆਂ ਪਰਸਪਰ ਕ੍ਰਿਆਵਾਂ ਵਿੱਚ ਲੋਕਾਂ ਦੀ ਥਾਂ ਲੈ ਸਕਦੇ ਹਨ।’ ਇਹ ਸਮਰੱਥਾ ਉਹਨਾਂ ਨੌਕਰੀਆਂ ਦੇ ਆਟੋਮੇਸ਼ਨ ਨੂੰ ਤੇਜ਼ ਕਰ ਸਕਦੀ ਹੈ ਜੋ ਟੈਕਸਟ-ਅਧਾਰਤ ਸੰਚਾਰ ‘ਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਨਿਰਭਰ ਕਰਦੀਆਂ ਹਨ, ਜਿਵੇਂ ਕਿ ਗਾਹਕ ਸੇਵਾ ਭੂਮਿਕਾਵਾਂ, ਤਕਨੀਕੀ ਸਹਾਇਤਾ, ਸਮੱਗਰੀ ਸੰਚਾਲਨ, ਅਤੇ ਇੱਥੋਂ ਤੱਕ ਕਿ ਪੱਤਰਕਾਰੀ ਜਾਂ ਪ੍ਰਸ਼ਾਸਕੀ ਕੰਮ ਦੇ ਕੁਝ ਪਹਿਲੂ ਵੀ। ਜਦੋਂ ਕਿ ਆਟੋਮੇਸ਼ਨ ਕੁਸ਼ਲਤਾ ਲਾਭਾਂ ਦਾ ਵਾਅਦਾ ਕਰਦੀ ਹੈ, ਇਹ ਨੌਕਰੀ ਦੇ ਵਿਸਥਾਪਨ ਅਤੇ ਇੱਕ ਬੇਮਿਸਾਲ ਪੈਮਾਨੇ ‘ਤੇ ਕਰਮਚਾਰੀਆਂ ਦੇ ਅਨੁਕੂਲਨ ਦੀ ਜ਼ਰੂਰਤ ਬਾਰੇ ਮਹੱਤਵਪੂਰਨ ਚਿੰਤਾਵਾਂ ਵੀ ਪੈਦਾ ਕਰਦੀ ਹੈ। ਉਹਨਾਂ ਭੂਮਿਕਾਵਾਂ ਨੂੰ ਸਵੈਚਾਲਤ ਕਰਨ ਦੇ ਆਰਥਿਕ ਅਤੇ ਸਮਾਜਿਕ ਨਤੀਜੇ ਜੋ ਪਹਿਲਾਂ ਉਹਨਾਂ ਦੇ ਸੂਖਮ ਸੰਚਾਰ ‘ਤੇ ਨਿਰਭਰਤਾ ਕਾਰਨ ਵਿਲੱਖਣ ਤੌਰ ‘ਤੇ ਮਨੁੱਖੀ ਮੰਨੀਆਂ ਜਾਂਦੀਆਂ ਸਨ, ਬਹੁਤ ਵੱਡੇ ਹੋ ਸਕਦੇ ਹਨ।
  • ਆਧੁਨਿਕ ਧੋਖਾਧੜੀ ਦਾ ਉਭਾਰ: ਸ਼ਾਇਦ ਵਧੇਰੇ ਤੁਰੰਤ ਚਿੰਤਾਜਨਕ ਗੱਲ ਇਹ ਹੈ ਕਿ ਖਤਰਨਾਕ ਗਤੀਵਿਧੀਆਂ ਵਿੱਚ ਦੁਰਵਰਤੋਂ ਦੀ ਸੰਭਾਵਨਾ ਹੈ। ਅਧਿਐਨ ‘ਸੁਧਰੇ ਹੋਏ ਸੋਸ਼ਲ ਇੰਜੀਨੀਅਰਿੰਗ ਹਮਲਿਆਂ’ ਦੀ ਸੰਭਾਵਨਾ ਨੂੰ ਰੇਖਾਂਕਿਤ ਕਰਦਾ ਹੈ। ਕਲਪਨਾ ਕਰੋ ਕਿ AI-ਸੰਚਾਲਿਤ ਬੋਟ ਬਹੁਤ ਜ਼ਿਆਦਾ ਵਿਅਕਤੀਗਤ ਫਿਸ਼ਿੰਗ ਘੁਟਾਲਿਆਂ ਵਿੱਚ ਸ਼ਾਮਲ ਹੁੰਦੇ ਹਨ, ਅਨੁਕੂਲਿਤ ਗਲਤ ਜਾਣਕਾਰੀ ਫੈਲਾਉਂਦੇ ਹਨ, ਜਾਂ ਔਨਲਾਈਨ ਫੋਰਮਾਂ ਜਾਂ ਸੋਸ਼ਲ ਮੀਡੀਆ ਵਿੱਚ ਵਿਅਕਤੀਆਂ ਨੂੰ ਬੇਮਿਸਾਲ ਪ੍ਰਭਾਵਸ਼ੀਲਤਾ ਨਾਲ ਹੇਰਾਫੇਰੀ ਕਰਦੇ ਹਨ ਕਿਉਂਕਿ ਉਹ ਮਨੁੱਖਾਂ ਤੋਂ ਵੱਖਰੇ ਨਹੀਂ ਜਾਪਦੇ। ਖਾਸ, ਭਰੋਸੇਮੰਦ ਪਰਸੋਨਾ ਅਪਣਾਉਣ ਦੀ ਯੋਗਤਾ ਇਹਨਾਂ ਹਮਲਿਆਂ ਨੂੰ ਕਿਤੇ ਜ਼ਿਆਦਾ ਯਕੀਨਨ ਅਤੇ ਪਤਾ ਲਗਾਉਣ ਵਿੱਚ ਮੁਸ਼ਕਲ ਬਣਾ ਸਕਦੀ ਹੈ। ਇਹ ਔਨਲਾਈਨ ਪਰਸਪਰ ਕ੍ਰਿਆਵਾਂ ਵਿੱਚ ਵਿਸ਼ਵਾਸ ਨੂੰ ਖਤਮ ਕਰ ਸਕਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਡਿਜੀਟਲ ਸੰਚਾਰਾਂ ਦੀ ਪ੍ਰਮਾਣਿਕਤਾ ਦੀ ਪੁਸ਼ਟੀ ਕਰਨਾ ਵਧਦੀ ਮੁਸ਼ਕਲ ਹੋ ਜਾਂਦਾ ਹੈ ਅਤੇ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਸਮਾਜਿਕ ਵੰਡ ਜਾਂ ਰਾਜਨੀਤਿਕ ਅਸਥਿਰਤਾ ਨੂੰ ਹਵਾ ਮਿਲਦੀ ਹੈ।
  • ਆਮ ਸਮਾਜਿਕ ਵਿਘਨ: ਖਾਸ ਖਤਰਿਆਂ ਤੋਂ ਪਰੇ, ਯਕੀਨਨ ਮਨੁੱਖ-ਵਰਗੇ AI ਦੀ ਵਿਆਪਕ ਤੈਨਾਤੀ ਵਿਆਪਕ ਸਮਾਜਿਕ ਤਬਦੀਲੀਆਂ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦੀ ਹੈ। ਅੰਤਰ-ਵਿਅਕਤੀਗਤ ਸਬੰਧ ਕਿਵੇਂ ਬਦਲਦੇ ਹਨ ਜਦੋਂ ਅਸੀਂ ਯਕੀਨੀ ਨਹੀਂ ਹੋ ਸਕਦੇ ਕਿ ਅਸੀਂ ਕਿਸੇ ਮਨੁੱਖ ਜਾਂ ਮਸ਼ੀਨ ਨਾਲ ਗੱਲ ਕਰ ਰਹੇ ਹਾਂ? ਪ੍ਰਮਾਣਿਕ ਮਨੁੱਖੀ ਸੰਪਰਕ ਦੇ ਮੁੱਲ ਦਾ ਕੀ ਹੁੰਦਾ ਹੈ? ਕੀ AI ਸਾਥੀ ਸਮਾਜਿਕ ਖਾਲੀਪਣ ਨੂੰ ਭਰ ਸਕਦੇ ਹਨ, ਪਰ ਅਸਲ ਮਨੁੱਖੀ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਦੀ ਕੀਮਤ ‘ਤੇ? ਮਨੁੱਖੀ ਅਤੇ ਨਕਲੀ ਸੰਚਾਰ ਵਿਚਕਾਰ ਧੁੰਦਲੀਆਂ ਰੇਖਾਵਾਂ ਬੁਨਿਆਦੀ ਸਮਾਜਿਕ ਨਿਯਮਾਂ ਨੂੰ ਚੁਣੌਤੀ ਦਿੰਦੀਆਂ ਹਨ ਅਤੇ ਇਹ ਮੁੜ ਆਕਾਰ ਦੇ ਸਕਦੀਆਂ ਹਨ ਕਿ ਅਸੀਂ ਇੱਕ ਦੂਜੇ ਅਤੇ ਤਕਨਾਲੋਜੀ ਨਾਲ ਕਿਵੇਂ ਸਬੰਧਤ ਹਾਂ। ਸਕਾਰਾਤਮਕ ਐਪਲੀਕੇਸ਼ਨਾਂ (ਜਿਵੇਂ ਕਿ ਵਧੀਆਂ ਪਹੁੰਚਯੋਗਤਾ ਟੂਲ ਜਾਂ ਵਿਅਕਤੀਗਤ ਸਿੱਖਿਆ) ਅਤੇ ਨਕਾਰਾਤਮਕ ਨਤੀਜਿਆਂ ਦੋਵਾਂ ਦੀ ਸੰਭਾਵਨਾ ਇੱਕ ਗੁੰਝਲਦਾਰ ਲੈਂਡਸਕੇਪ ਬਣਾਉਂਦੀ ਹੈ ਜਿਸਨੂੰ ਸਮਾਜ ਹੁਣੇ ਹੀ ਨੈਵੀਗੇਟ ਕਰਨਾ ਸ਼ੁਰੂ ਕਰ ਰਿਹਾ ਹੈ।

ਮਨੁੱਖੀ ਤੱਤ: ਬਦਲਦੀ ਧਾਰਨਾ

ਇਹ ਪਛਾਣਨਾ ਮਹੱਤਵਪੂਰਨ ਹੈ ਕਿ Turing Test, ਅਤੇ UC San Diego ਵਿਖੇ ਕੀਤੇ ਗਏ ਪ੍ਰਯੋਗਾਂ ਵਰਗੇ ਪ੍ਰਯੋਗ, ਸਿਰਫ਼ ਮਸ਼ੀਨ ਦੀ ਸਮਰੱਥਾ ਦਾ ਮੁਲਾਂਕਣ ਨਹੀਂ ਹਨ; ਉਹ ਮਨੁੱਖੀ ਮਨੋਵਿਗਿਆਨ ਅਤੇ ਧਾਰਨਾ ਦੇ ਪ੍ਰਤੀਬਿੰਬ ਵੀ ਹਨ। ਜਿਵੇਂ ਕਿ Jones ਆਪਣੀ ਟਿੱਪਣੀ ਵਿੱਚ ਸਿੱਟਾ ਕੱਢਦਾ ਹੈ, ਟੈਸਟ ਸਾਨੂੰ ਓਨਾ ਹੀ ਮਾਈਕ੍ਰੋਸਕੋਪ ਦੇ ਹੇਠਾਂ ਰੱਖਦਾ ਹੈ ਜਿੰਨਾ ਇਹ AI ਨੂੰ ਰੱਖਦਾ ਹੈ। ਮਨੁੱਖ ਨੂੰ ਮਸ਼ੀਨ ਤੋਂ ਵੱਖ ਕਰਨ ਦੀ ਸਾਡੀ ਯੋਗਤਾ, ਜਾਂ ਅਯੋਗਤਾ, ਸਾਡੇ ਆਪਣੇ ਪੱਖਪਾਤ, ਉਮੀਦਾਂ, ਅਤੇ AI