ਏਆਈ: ਫੈਸਲਾ ਲੈਣ 'ਚ ਮਨੁੱਖੀ ਕਮੀਆਂ ਦਾ ਪ੍ਰਤੀਬਿੰਬ

ਹਾਲ ਹੀ ਦੀਆਂ ਖੋਜਾਂ ਨੇ ਨਕਲੀ ਬੁੱਧੀ (AI) ਦੇ ਇੱਕ ਦਿਲਚਸਪ ਪਰ ਚਿੰਤਾਜਨਕ ਪਹਿਲੂ ਨੂੰ ਉਜਾਗਰ ਕੀਤਾ ਹੈ: ਮਨੁੱਖੀ ਫੈਸਲਾ ਲੈਣ ਵਿੱਚ ਵੇਖੇ ਗਏ ਤਰਕਹੀਣ ਰੁਝਾਨਾਂ ਲਈ ਇਸਦੀ ਸੰਵੇਦਨਸ਼ੀਲਤਾ। ਇਸ ਖੁਲਾਸੇ ਨੇ AI ਨੂੰ ਇੱਕ ਉਦੇਸ਼ਪੂਰਨ ਅਤੇ ਨਿਰਪੱਖ ਸਾਧਨ ਵਜੋਂ ਰਵਾਇਤੀ ਧਾਰਨਾ ਨੂੰ ਚੁਣੌਤੀ ਦਿੱਤੀ ਹੈ, ਵਿਭਿੰਨ ਐਪਲੀਕੇਸ਼ਨਾਂ ਵਿੱਚ ਇਸਦੀ ਵਿਹਾਰਕ ਉਪਯੋਗਤਾ ਦੇ ਮੁੜ ਮੁਲਾਂਕਣ ਨੂੰ ਪ੍ਰੇਰਿਤ ਕੀਤਾ ਹੈ।

ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਅਧਿਐਨ ਨੇ ਮਨੁੱਖੀ ਮਨੋਵਿਗਿਆਨ ਵਿੱਚ ਪ੍ਰਚਲਿਤ ਬੋਧਾਤਮਕ ਪੱਖਪਾਤਾਂ ਦੇ ਇੱਕ ਸਪੈਕਟ੍ਰਮ ਵਿੱਚ, ਇੱਕ ਪ੍ਰਮੁੱਖ AI ਸਿਸਟਮ, ChatGPT ਦੇ ਵਿਵਹਾਰ ਦੀ ਬਾਰੀਕੀ ਨਾਲ ਜਾਂਚ ਕੀਤੀ। ਮੈਨੂਫੈਕਚਰਿੰਗ ਐਂਡ ਸਰਵਿਸ ਆਪ੍ਰੇਸ਼ਨਜ਼ ਮੈਨੇਜਮੈਂਟ ਨਾਮਕ ਮਸ਼ਹੂਰ ਜਰਨਲ ਵਿੱਚ ਪ੍ਰਕਾਸ਼ਤ ਖੋਜਾਂ ਨੇ ਖੁਲਾਸਾ ਕੀਤਾ ਕਿ ChatGPT ਨੇ ਮੁਲਾਂਕਣ ਕੀਤੇ ਗਏ ਦ੍ਰਿਸ਼ਾਂ ਵਿੱਚੋਂ ਲਗਭਗ ਅੱਧ ਵਿੱਚ ਕਈ ਤਰਕਹੀਣ ਫੈਸਲੇ ਲੈਣ ਦੇ ਪੈਟਰਨ ਪ੍ਰਦਰਸ਼ਿਤ ਕੀਤੇ। ਇਹਨਾਂ ਪੈਟਰਨਾਂ ਵਿੱਚ ਚੰਗੀ ਤਰ੍ਹਾਂ ਦਸਤਾਵੇਜ਼ੀ ਪੱਖਪਾਤ ਸ਼ਾਮਲ ਹਨ ਜਿਵੇਂ ਕਿ ਗਰਮ ਹੱਥ ਦੀ ਗਲਤੀ, ਬੇਸ-ਰੇਟ ਦੀ ਅਣਗਹਿਲੀ, ਅਤੇ ਡੁੱਬੀ ਹੋਈ ਲਾਗਤ ਦੀ ਗਲਤੀ, ਜੋ ਕਿ ਨਾਜ਼ੁਕ ਫੈਸਲੇ ਲੈਣ ਦੇ ਸੰਦਰਭਾਂ ਵਿੱਚ AI ਦੀ ਭਰੋਸੇਯੋਗਤਾ ਅਤੇ ਅਨੁਕੂਲਤਾ ਬਾਰੇ ਮਹੱਤਵਪੂਰਨ ਚਿੰਤਾਵਾਂ ਪੈਦਾ ਕਰਦੇ ਹਨ।

AI ਵਿੱਚ ਮਨੁੱਖ ਵਰਗੀਆਂ ਕਮੀਆਂ ਦਾ ਖੁਲਾਸਾ

ਕੈਨੇਡਾ ਅਤੇ ਆਸਟ੍ਰੇਲੀਆ ਵਿੱਚ ਫੈਲੇ ਪੰਜ ਉੱਘੇ ਅਕਾਦਮਿਕ ਅਦਾਰਿਆਂ ਦੇ ਮਾਹਰਾਂ ਦੇ ਇੱਕ ਸਮੂਹ ਦੁਆਰਾ ਕੀਤੇ ਗਏ ਖੋਜ ਨੇ OpenAI ਦੇ GPT-3.5 ਅਤੇ GPT-4 ਦੇ ਪ੍ਰਦਰਸ਼ਨ ਦਾ ਸਖਤੀ ਨਾਲ ਮੁਲਾਂਕਣ ਕੀਤਾ, ਜੋ ਕਿ ChatGPT ਨੂੰ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰਨ ਵਾਲੇ ਬੁਨਿਆਦੀ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲ (LLMs) ਹਨ। ਅਧਿਐਨ ਦੇ ਵਿਆਪਕ ਵਿਸ਼ਲੇਸ਼ਣ ਨੇ ਦੱਸਿਆ ਕਿ ਇਹਨਾਂ LLMs ਦੁਆਰਾ ਉਹਨਾਂ ਦੀਆਂ ਤਰਕ ਪ੍ਰਕਿਰਿਆਵਾਂ ਵਿੱਚ ਪ੍ਰਦਰਸ਼ਿਤ ਕੀਤੀ ਗਈ “ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਇਕਸਾਰਤਾ” ਦੇ ਬਾਵਜੂਦ, ਉਹ ਮਨੁੱਖ ਵਰਗੀਆਂ ਕਮੀਆਂ ਅਤੇ ਪੱਖਪਾਤਾਂ ਤੋਂ ਬਹੁਤ ਦੂਰ ਹਨ।

ਲੇਖਕਾਂ ਨੇ ਚਲਾਕੀ ਨਾਲ ਉਜਾਗਰ ਕੀਤਾ ਕਿ AI ਪ੍ਰਣਾਲੀਆਂ ਦੇ ਅੰਦਰ ਇਹ ਅੰਤਰਮੁਖੀ ਇਕਸਾਰਤਾ ਫਾਇਦੇ ਅਤੇ ਨੁਕਸਾਨ ਦੋਵੇਂ ਪੇਸ਼ ਕਰਦੀ ਹੈ। ਜਦੋਂ ਕਿ ਇਕਸਾਰਤਾ ਸਪਸ਼ਟ, ਫਾਰਮੂਲਾਗਤ ਹੱਲਾਂ ਵਾਲੇ ਕਾਰਜਾਂ ਨੂੰ ਸੁਚਾਰੂ ਬਣਾ ਸਕਦੀ ਹੈ, ਇਹ ਵਿਅਕਤੀਗਤ ਜਾਂ ਤਰਜੀਹ-ਅਧਾਰਤ ਫੈਸਲਿਆਂ ‘ਤੇ ਲਾਗੂ ਹੋਣ ‘ਤੇ ਸੰਭਾਵੀ ਜੋਖਮ ਪੈਦਾ ਕਰਦੀ ਹੈ। ਅਜਿਹੇ ਦ੍ਰਿਸ਼ਾਂ ਵਿੱਚ, AI ਦੁਆਰਾ ਮਨੁੱਖੀ ਪੱਖਪਾਤਾਂ ਦੀ ਨਕਲ ਕਰਨ ਨਾਲ ਨੁਕਸਦਾਰ ਨਤੀਜੇ ਅਤੇ ਵਿਗੜੇ ਹੋਏ ਨਤੀਜੇ ਹੋ ਸਕਦੇ ਹਨ।

ਯਾਂਗ ਚੇਨ, ਅਧਿਐਨ ਦੇ ਮੁੱਖ ਲੇਖਕ ਅਤੇ ਸਤਿਕਾਰਤ ਆਈਵੀ ਬਿਜ਼ਨਸ ਸਕੂਲ ਵਿੱਚ ਸੰਚਾਲਨ ਪ੍ਰਬੰਧਨ ਦੇ ਇੱਕ ਸਹਾਇਕ ਪ੍ਰੋਫੈਸਰ, ਨੇ AI ਟੂਲਸ ਦੀਆਂ ਢੁਕਵੀਆਂ ਐਪਲੀਕੇਸ਼ਨਾਂ ਨੂੰ ਸਮਝਣ ਦੀ ਮਹੱਤਤਾ ‘ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ। ਉਸਨੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਕਿ ਜਦੋਂ ਕਿ AI ਸਟੀਕ ਗਣਨਾਵਾਂ ਅਤੇ ਤਰਕਪੂਰਨ ਤਰਕ ਦੀ ਲੋੜ ਵਾਲੇ ਕਾਰਜਾਂ ਵਿੱਚ ਉੱਤਮ ਹੈ, ਵਿਅਕਤੀਗਤ ਫੈਸਲੇ ਲੈਣ ਦੀਆਂ ਪ੍ਰਕਿਰਿਆਵਾਂ ਵਿੱਚ ਇਸਦੀ ਵਰਤੋਂ ਲਈ ਧਿਆਨ ਨਾਲ ਵਿਚਾਰ ਕਰਨ ਅਤੇ ਚੌਕਸ ਨਿਗਰਾਨੀ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।

AI ਵਿੱਚ ਮਨੁੱਖੀ ਪੱਖਪਾਤਾਂ ਦੀ ਨਕਲ ਕਰਨਾ

AI ਪ੍ਰਣਾਲੀਆਂ ਦੇ ਅੰਦਰ ਮਨੁੱਖੀ ਪੱਖਪਾਤਾਂ ਦੀ ਮੌਜੂਦਗੀ ਦੀ ਖੋਜ ਕਰਨ ਲਈ, ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਪ੍ਰਯੋਗਾਂ ਦੀ ਇੱਕ ਲੜੀ ਤਿਆਰ ਕੀਤੀ ਜੋ ਆਮ ਤੌਰ ‘ਤੇ ਜਾਣੇ ਜਾਂਦੇ ਮਨੁੱਖੀ ਪੱਖਪਾਤਾਂ ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ, ਜਿਸ ਵਿੱਚ ਜੋਖਮ ਤੋਂ ਬਚਣਾ, ਆਤਮ ਵਿਸ਼ਵਾਸ, ਅਤੇ ਦਾਨ ਪ੍ਰਭਾਵ ਸ਼ਾਮਲ ਹਨ। ਉਹਨਾਂ ਨੇ ChatGPT ਨੂੰ ਇਹਨਾਂ ਪੱਖਪਾਤਾਂ ਨੂੰ ਚਾਲੂ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤੇ ਪ੍ਰੋਂਪਟ ਪੇਸ਼ ਕੀਤੇ ਅਤੇ AI ਦੇ ਜਵਾਬਾਂ ਦਾ ਧਿਆਨ ਨਾਲ ਵਿਸ਼ਲੇਸ਼ਣ ਕੀਤਾ ਤਾਂ ਇਹ ਨਿਰਧਾਰਤ ਕੀਤਾ ਜਾ ਸਕੇ ਕਿ ਕੀ ਇਹ ਮਨੁੱਖਾਂ ਵਾਂਗ ਹੀ ਬੋਧਾਤਮਕ ਜਾਲਾਂ ਦਾ ਸ਼ਿਕਾਰ ਹੋਵੇਗਾ।

ਵਿਗਿਆਨੀਆਂ ਨੇ ਪਰੰਪਰਾਗਤ ਮਨੋਵਿਗਿਆਨ ਪ੍ਰਯੋਗਾਂ ਤੋਂ ਲਏ ਗਏ ਕਾਲਪਨਿਕ ਸਵਾਲ LLMs ਨੂੰ ਪੁੱਛੇ। ਇਹ ਸਵਾਲ ਵਸਤੂ ਸੂਚੀ ਪ੍ਰਬੰਧਨ ਅਤੇ ਸਪਲਾਇਰ ਗੱਲਬਾਤ ਵਰਗੇ ਖੇਤਰਾਂ ਵਿੱਚ ਫੈਲਦੇ ਹੋਏ, ਅਸਲ-ਸੰਸਾਰ ਵਪਾਰਕ ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੇ ਸੰਦਰਭ ਵਿੱਚ ਤਿਆਰ ਕੀਤੇ ਗਏ ਸਨ। ਉਦੇਸ਼ ਇਹ ਪਤਾ ਲਗਾਉਣਾ ਸੀ ਕਿ ਕੀ AI ਮਨੁੱਖੀ ਪੱਖਪਾਤਾਂ ਦੀ ਨਕਲ ਕਰੇਗੀ ਅਤੇ ਕੀ ਇਹਨਾਂ ਪੱਖਪਾਤਾਂ ਲਈ ਇਸਦੀ ਸੰਵੇਦਨਸ਼ੀਲਤਾ ਵੱਖ-ਵੱਖ ਕਾਰੋਬਾਰੀ ਖੇਤਰਾਂ ਵਿੱਚ ਜਾਰੀ ਰਹੇਗੀ।

ਨਤੀਜਿਆਂ ਨੇ ਖੁਲਾਸਾ ਕੀਤਾ ਕਿ GPT-4 ਨੇ ਆਪਣੇ ਪੂਰਵਵਰਤੀ, GPT-3.5 ਨੂੰ ਸਪਸ਼ਟ ਗਣਿਤਿਕ ਹੱਲਾਂ ਵਾਲੀਆਂ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਹੱਲ ਕਰਨ ਵਿੱਚ ਬਿਹਤਰ ਪ੍ਰਦਰਸ਼ਨ ਕੀਤਾ। GPT-4 ਨੇ ਉਹਨਾਂ ਦ੍ਰਿਸ਼ਾਂ ਵਿੱਚ ਘੱਟ ਗਲਤੀਆਂ ਦਿਖਾਈਆਂ ਜਿਹਨਾਂ ਵਿੱਚ ਸੰਭਾਵਨਾ ਗਣਨਾਵਾਂ ਅਤੇ ਤਰਕਪੂਰਨ ਤਰਕ ਦੀ ਮੰਗ ਕੀਤੀ ਗਈ ਸੀ। ਹਾਲਾਂਕਿ, ਵਿਅਕਤੀਗਤ ਸਿਮੂਲੇਸ਼ਨਾਂ ਵਿੱਚ, ਜਿਵੇਂ ਕਿ ਇਹ ਫੈਸਲਾ ਕਰਨਾ ਕਿ ਕੀ ਲਾਭ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਇੱਕ ਜੋਖਮ ਭਰੇ ਵਿਕਲਪ ਦਾ ਪਿੱਛਾ ਕਰਨਾ ਹੈ, ਚੈਟਬੋਟ ਨੇ ਅਕਸਰ ਮਨੁੱਖਾਂ ਦੁਆਰਾ ਪ੍ਰਦਰਸ਼ਿਤ ਕੀਤੀਆਂ ਤਰਕਹੀਣ ਤਰਜੀਹਾਂ ਨੂੰ ਦਰਸਾਇਆ।

ਨਿਸ਼ਚਿਤਤਾ ਲਈ AI ਦੀ ਤਰਜੀਹ

ਖਾਸ ਤੌਰ ‘ਤੇ, ਅਧਿਐਨ ਨੇ ਖੁਲਾਸਾ ਕੀਤਾ ਕਿ "GPT-4 ਮਨੁੱਖਾਂ ਨਾਲੋਂ ਵੀ ਨਿਸ਼ਚਿਤਤਾ ਲਈ ਇੱਕ ਮਜ਼ਬੂਤ ਤਰਜੀਹ ਦਿਖਾਉਂਦਾ ਹੈ।” ਇਹ ਨਿਰੀਖਣ ਅਸਪਸ਼ਟ ਕਾਰਜਾਂ ਦਾ ਸਾਹਮਣਾ ਕਰਨ ‘ਤੇ ਸੁਰੱਖਿਅਤ ਅਤੇ ਵਧੇਰੇ ਅਨੁਮਾਨਿਤ ਨਤੀਜਿਆਂ ਦੇ ਹੱਕ ਵਿੱਚ AI ਦੇ ਰੁਝਾਨ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ। ਨਿਸ਼ਚਿਤਤਾ ਵੱਲ ਝੁਕਾਅ ਕੁਝ ਸਥਿਤੀਆਂ ਵਿੱਚ ਲਾਭਦਾਇਕ ਹੋ ਸਕਦਾ ਹੈ, ਪਰ ਇਹ ਨਵੀਨਤਾਕਾਰੀ ਹੱਲਾਂ ਦੀ ਪੜਚੋਲ ਕਰਨ ਜਾਂ ਅਣਕਿਆਸੇ ਹਾਲਾਤਾਂ ਦੇ ਅਨੁਕੂਲ ਹੋਣ ਦੀ AI ਦੀ ਯੋਗਤਾ ਨੂੰ ਵੀ ਸੀਮਿਤ ਕਰ ਸਕਦਾ ਹੈ।

ਮਹੱਤਵਪੂਰਨ ਤੌਰ ‘ਤੇ, ਚੈਟਬੋਟਸ ਦੇ ਵਿਵਹਾਰ ਬਹੁਤ ਇਕਸਾਰ ਰਹੇ, ਭਾਵੇਂ ਸਵਾਲਾਂ ਨੂੰ ਅਮੂਰਤ ਮਨੋਵਿਗਿਆਨਕ ਸਮੱਸਿਆਵਾਂ ਜਾਂ ਸੰਚਾਲਨ ਕਾਰੋਬਾਰੀ ਪ੍ਰਕਿਰਿਆਵਾਂ ਵਜੋਂ ਪੇਸ਼ ਕੀਤਾ ਗਿਆ ਸੀ। ਇਹ ਇਕਸਾਰਤਾ ਦਰਸਾਉਂਦੀ ਹੈ ਕਿ ਦੇਖੇ ਗਏ ਪੱਖਪਾਤ ਸਿਰਫ਼ ਯਾਦ ਕੀਤੇ ਉਦਾਹਰਣਾਂ ਦਾ ਨਤੀਜਾ ਨਹੀਂ ਸਨ, ਸਗੋਂ AI ਪ੍ਰਣਾਲੀਆਂ ਦੇ ਤਰਕ ਅਤੇ ਜਾਣਕਾਰੀ ਦੀ ਪ੍ਰਕਿਰਿਆ ਦਾ ਇੱਕ ਅੰਦਰੂਨੀ ਪਹਿਲੂ ਸਨ। ਅਧਿਐਨ ਨੇ ਸਿੱਟਾ ਕੱਢਿਆ ਕਿ AI ਦੁਆਰਾ ਪ੍ਰਦਰਸ਼ਿਤ ਕੀਤੇ ਗਏ ਪੱਖਪਾਤ ਇਸਦੇ ਤਰਕ ਵਿਧੀ ਦੇ ਅੰਦਰ ਏਮਬੇਡ ਕੀਤੇ ਗਏ ਹਨ।

ਅਧਿਐਨ ਦੇ ਸਭ ਤੋਂ ਹੈਰਾਨ ਕਰਨ ਵਾਲੇ ਖੁਲਾਸਿਆਂ ਵਿੱਚੋਂ ਇੱਕ ਇਹ ਸੀ ਕਿ GPT-4 ਨੇ ਕਦੇ-ਕਦਾਈਂ ਮਨੁੱਖੀ ਵਰਗੀਆਂ ਗਲਤੀਆਂ ਨੂੰ ਕਿਸ ਤਰੀਕੇ ਨਾਲ ਵਧਾਇਆ। ਪੁਸ਼ਟੀਕਰਨ ਪੱਖਪਾਤ ਦੇ ਕੰਮਾਂ ਵਿੱਚ, GPT-4 ਨੇ ਲਗਾਤਾਰ ਪੱਖਪਾਤੀ ਜਵਾਬ ਦਿੱਤੇ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਇਸ ਨੇ GPT 3.5 ਦੇ ਮੁਕਾਬਲੇ ਹੌਟ-ਹੈਂਡ ਫੈਲਸੀ ਵੱਲ ਵਧੇਰੇ ਸਪੱਸ਼ਟ ਰੁਝਾਨ ਦਿਖਾਇਆ, ਜੋ ਕਿ ਬੇਤਰਤੀਬਤਾ ਵਿੱਚ ਪੈਟਰਨਾਂ ਨੂੰ ਸਮਝਣ ਦੀ ਇੱਕ ਮਜ਼ਬੂਤ ਪ੍ਰਵਿਰਤੀ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ।

ਪੱਖਪਾਤ ਤੋਂ ਬਚਣ ਦੀਆਂ ਉਦਾਹਰਣਾਂ

ਦਿਲਚਸਪ ਗੱਲ ਇਹ ਹੈ ਕਿ ChatGPT ਨੇ ਕੁਝ ਆਮ ਮਨੁੱਖੀ ਪੱਖਪਾਤਾਂ, ਜਿਸ ਵਿੱਚ ਬੇਸ-ਰੇਟ ਦੀ ਅਣਗਹਿਲੀ ਅਤੇ ਡੁੱਬੀ ਹੋਈ ਲਾਗਤ ਦੀ ਗਲਤੀ ਸ਼ਾਮਲ ਹੈ, ਤੋਂ ਬਚਣ ਦੀ ਯੋਗਤਾ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕੀਤਾ। ਬੇਸ-ਰੇਟ ਦੀ ਅਣਗਹਿਲੀ ਉਦੋਂ ਵਾਪਰਦੀ ਹੈ ਜਦੋਂ ਵਿਅਕਤੀ ਅਨੁਮਾਨਿਤ ਜਾਂ ਕੇਸ-ਵਿਸ਼ੇਸ਼ ਜਾਣਕਾਰੀ ਦੇ ਹੱਕ ਵਿੱਚ ਅੰਕੜਾਤਮਕ ਤੱਥਾਂ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਦੇ ਹਨ। ਡੁੱਬੀ ਹੋਈ ਲਾਗਤ ਦੀ ਗਲਤੀ ਉਦੋਂ ਪੈਦਾ ਹੁੰਦੀ ਹੈ ਜਦੋਂ ਫੈਸਲਾ ਲੈਣਾ ਉਹਨਾਂ ਲਾਗਤਾਂ ਤੋਂ ਬੇਲੋੜੀ ਪ੍ਰਭਾਵਿਤ ਹੁੰਦਾ ਹੈ ਜੋ ਪਹਿਲਾਂ ਹੀ ਲੱਗ ਚੁੱਕੀਆਂ ਹਨ, ਤਰਕਸ਼ੀਲ ਨਿਰਣੇ ਨੂੰ ਧੁੰਦਲਾ ਕਰਦੀਆਂ ਹਨ।

ਲੇਖਕਾਂ ਦਾ ਮੰਨਣਾ ਹੈ ਕਿ ChatGPT ਦੇ ਮਨੁੱਖੀ ਵਰਗੇ ਪੱਖਪਾਤ ਸਿਖਲਾਈ ਡੇਟਾ ਤੋਂ ਪੈਦਾ ਹੁੰਦੇ ਹਨ ਜਿਸਦੇ ਸਾਹਮਣੇ ਇਹ ਆਉਂਦਾ ਹੈ, ਜਿਸ ਵਿੱਚ ਮਨੁੱਖਾਂ ਦੁਆਰਾ ਪ੍ਰਦਰਸ਼ਿਤ ਕੀਤੇ ਗਏ ਬੋਧਾਤਮਕ ਪੱਖਪਾਤ ਅਤੇ ਹੀਊਰਿਸਟਿਕਸ ਸ਼ਾਮਲ ਹਨ। ਇਹ ਰੁਝਾਨ ਫਾਈਨ-ਟਿਊਨਿੰਗ ਪ੍ਰਕਿਰਿਆ ਦੌਰਾਨ ਹੋਰ ਮਜ਼ਬੂਤ ਹੁੰਦੇ ਹਨ, ਖਾਸ ਕਰਕੇ ਜਦੋਂ ਮਨੁੱਖੀ ਫੀਡਬੈਕ ਤਰਕਸ਼ੀਲ ਜਵਾਬਾਂ ਨਾਲੋਂ ਸੰਭਾਵਿਤ ਜਵਾਬਾਂ ਨੂੰ ਤਰਜੀਹ ਦਿੰਦਾ ਹੈ। ਅਸਪਸ਼ਟ ਕਾਰਜਾਂ ਦੇ ਮੱਦੇਨਜ਼ਰ, AI ਸਿੱਧੇ ਤਰਕ ‘ਤੇ ਭਰੋਸਾ ਕਰਨ ਦੀ ਬਜਾਏ ਮਨੁੱਖੀ ਤਰਕ ਦੇ ਪੈਟਰਨਾਂ ਵੱਲ ਖਿੱਚਣ ਲੱਗਦਾ ਹੈ।

AI ਦੇ ਪੱਖਪਾਤਾਂ ਨੂੰ ਨੈਵੀਗੇਟ ਕਰਨਾ

AI ਦੇ ਪੱਖਪਾਤਾਂ ਨਾਲ ਜੁੜੇ ਜੋਖਮਾਂ ਨੂੰ ਘਟਾਉਣ ਲਈ, ਖੋਜਕਰਤਾਵਾਂ ਇਸਦੀ ਵਰਤੋਂ ਲਈ ਇੱਕ ਸਮਝਦਾਰ ਪਹੁੰਚ ਦੀ ਵਕਾਲਤ ਕਰਦੇ ਹਨ। ਉਹ ਸਿਫ਼ਾਰਸ਼ ਕਰਦੇ ਹਨ ਕਿ AI ਨੂੰ ਉਹਨਾਂ ਖੇਤਰਾਂ ਵਿੱਚ ਵਰਤਿਆ ਜਾਵੇ ਜਿੱਥੇ ਇਸਦੀਆਂ ਸ਼ਕਤੀਆਂ ਹਨ, ਜਿਵੇਂ ਕਿ ਉਹ ਕੰਮ ਜੋ ਸ਼ੁੱਧਤਾ ਅਤੇ ਨਿਰਪੱਖ ਗਣਨਾਵਾਂ ਦੀ ਮੰਗ ਕਰਦੇ ਹਨ, ਜਿਵੇਂ ਕਿ ਇੱਕ ਕੈਲਕੁਲੇਟਰ ਦੁਆਰਾ ਕੀਤੇ ਜਾਂਦੇ ਹਨ। ਹਾਲਾਂਕਿ, ਜਦੋਂ ਨਤੀਜਾ ਵਿਅਕਤੀਗਤ ਜਾਂ ਰਣਨੀਤਕ ਇਨਪੁਟਸ ‘ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ, ਤਾਂ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਸਭ ਤੋਂ ਮਹੱਤਵਪੂਰਨ ਹੋ ਜਾਂਦੀ ਹੈ।

ਚੇਨ ਜ਼ੋਰ ਦਿੰਦਾ ਹੈ ਕਿ "ਜੇ ਤੁਸੀਂ ਸਟੀਕ, ਨਿਰਪੱਖ ਫੈਸਲੇ ਲੈਣ ਵਾਲਾ ਸਮਰਥਨ ਚਾਹੁੰਦੇ ਹੋ, ਤਾਂ GPT ਦੀ ਵਰਤੋਂ ਉਹਨਾਂ ਖੇਤਰਾਂ ਵਿੱਚ ਕਰੋ ਜਿੱਥੇ ਤੁਸੀਂ ਪਹਿਲਾਂ ਹੀ ਇੱਕ ਕੈਲਕੁਲੇਟਰ ‘ਤੇ ਭਰੋਸਾ ਕਰਦੇ ਹੋ।” ਉਹ ਅੱਗੇ ਸੁਝਾਅ ਦਿੰਦਾ ਹੈ ਕਿ ਮਨੁੱਖੀ ਦਖਲਅੰਦਾਜ਼ੀ, ਜਿਵੇਂ ਕਿ ਜਾਣੇ-ਪਛਾਣੇ ਪੱਖਪਾਤਾਂ ਨੂੰ ਠੀਕ ਕਰਨ ਲਈ ਉਪਭੋਗਤਾ ਪ੍ਰੋਂਪਟਸ ਨੂੰ ਅਨੁਕੂਲ ਕਰਨਾ, ਜ਼ਰੂਰੀ ਹੈ ਜਦੋਂ AI ਨੂੰ ਉਹਨਾਂ ਸੰਦਰਭਾਂ ਵਿੱਚ ਵਰਤਿਆ ਜਾਂਦਾ ਹੈ ਜਿਨ੍ਹਾਂ ਲਈ ਸੂਖਮ ਨਿਰਣੇ ਅਤੇ ਰਣਨੀਤਕ ਸੋਚ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।

ਕੈਨੇਡਾ ਵਿੱਚ ਮੈਕਮਾਸਟਰ ਯੂਨੀਵਰਸਿਟੀ ਵਿੱਚ ਮਨੁੱਖੀ ਸਰੋਤ ਅਤੇ ਪ੍ਰਬੰਧਨ ਦੀ ਇੱਕ ਸਹਿਯੋਗੀ ਪ੍ਰੋਫੈਸਰ ਅਤੇ ਅਧਿਐਨ ਦੀ ਇੱਕ ਸਹਿ-ਲੇਖਕ, ਮੀਨਾ ਐਂਡੀਅੱਪਨ, AI ਨੂੰ ਇੱਕ ਕਰਮਚਾਰੀ ਵਜੋਂ ਮੰਨਣ ਦੀ ਵਕਾਲਤ ਕਰਦੀ ਹੈ ਜੋ ਮਹੱਤਵਪੂਰਨ ਫੈਸਲੇ ਲੈਂਦਾ ਹੈ। ਉਹ ਜ਼ਿੰਮੇਵਾਰੀ ਅਤੇ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਢੰਗ ਨਾਲ AI ਦੀ ਵਰਤੋਂ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਨਿਗਰਾਨੀ ਅਤੇ ਨੈਤਿਕ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ਾਂ ਦੀ ਲੋੜ ‘ਤੇ ਜ਼ੋਰ ਦਿੰਦੀ ਹੈ। ਅਜਿਹੀਆਂ ਹਦਾਇਤਾਂ ਪ੍ਰਦਾਨ ਕਰਨ ਵਿੱਚ ਅਸਫਲਤਾ ਫੈਸਲੇ ਲੈਣ ਦੀਆਂ ਪ੍ਰਕਿਰਿਆਵਾਂ ਵਿੱਚ ਲੋੜੀਂਦੇ ਸੁਧਾਰ ਦੀ ਬਜਾਏ, ਨੁਕਸਦਾਰ ਸੋਚ ਦੇ ਆਟੋਮੇਸ਼ਨ ਵੱਲ ਲੈ ਜਾ ਸਕਦੀ ਹੈ।

ਪ੍ਰਭਾਵ ਅਤੇ ਵਿਚਾਰ

ਅਧਿਐਨ ਦੀਆਂ ਖੋਜਾਂ ਦਾ ਵਿਭਿੰਨ ਖੇਤਰਾਂ ਵਿੱਚ AI ਪ੍ਰਣਾਲੀਆਂ ਦੇ ਵਿਕਾਸ ਅਤੇ ਤੈਨਾਤੀ ਲਈ ਡੂੰਘਾ ਪ੍ਰਭਾਵ ਹੈ। ਇਹ ਖੁਲਾਸਾ ਕਿ AI ਮਨੁੱਖੀ ਵਰਗੇ ਪੱਖਪਾਤਾਂ ਲਈ ਸੰਵੇਦਨਸ਼ੀਲ ਹੈ, ਖਾਸ ਕਾਰਜਾਂ ਲਈ ਇਸਦੀ ਅਨੁਕੂਲਤਾ ਦਾ ਧਿਆਨ ਨਾਲ ਮੁਲਾਂਕਣ ਕਰਨ ਅਤੇ ਸੰਭਾਵੀ ਜੋਖਮਾਂ ਨੂੰ ਘਟਾਉਣ ਲਈ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਨੂੰ ਲਾਗੂ ਕਰਨ ਦੀ ਮਹੱਤਤਾ ਨੂੰ ਰੇਖਾਂਕਿਤ ਕਰਦਾ ਹੈ।

ਜਿਹੜੀਆਂ ਸੰਸਥਾਵਾਂ ਫੈਸਲੇ ਲੈਣ ਲਈ AI ‘ਤੇ ਨਿਰਭਰ ਕਰਦੀਆਂ ਹਨ, ਉਨ੍ਹਾਂ ਨੂੰ ਪੱਖਪਾਤ ਦੀ ਸੰਭਾਵਨਾ ਬਾਰੇ ਪਤਾ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ ਅਤੇ ਇਸ ਨੂੰ ਸੰਬੋਧਿਤ ਕਰਨ ਲਈ ਕਦਮ ਚੁੱਕਣੇ ਚਾਹੀਦੇ ਹਨ। ਇਸ ਵਿੱਚ ਪੱਖਪਾਤ ਨੂੰ ਘਟਾਉਣ ਲਈ ਵਾਧੂ ਸਿਖਲਾਈ ਡੇਟਾ ਪ੍ਰਦਾਨ ਕਰਨਾ, ਐਲਗੋਰਿਦਮ ਦੀ ਵਰਤੋਂ ਕਰਨਾ ਸ਼ਾਮਲ ਹੋ ਸਕਦਾ ਹੈ ਜੋ ਪੱਖਪਾਤ ਲਈ ਘੱਟ ਸੰਵੇਦਨਸ਼ੀਲ ਹਨ, ਜਾਂ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਨੂੰ ਲਾਗੂ ਕਰਨਾ ਕਿ AI ਫੈਸਲੇ ਨਿਰਪੱਖ ਅਤੇ ਸਹੀ ਹਨ।

ਅਧਿਐਨ AI ਪੱਖਪਾਤ ਦੇ ਕਾਰਨਾਂ ਅਤੇ ਨਤੀਜਿਆਂ ਵਿੱਚ ਹੋਰ ਖੋਜ ਦੀ ਲੋੜ ‘ਤੇ ਵੀ ਜ਼ੋਰ ਦਿੰਦਾ ਹੈ। AI ਪ੍ਰਣਾਲੀਆਂ ਕਿਵੇਂ ਪੱਖਪਾਤ ਵਿਕਸਤ ਕਰਦੀਆਂ ਹਨ, ਇਸ ਬਾਰੇ ਬਿਹਤਰ ਸਮਝ ਪ੍ਰਾਪਤ ਕਰਕੇ, ਅਸੀਂ ਉਹਨਾਂ ਨੂੰ ਪਹਿਲੀ ਥਾਂ ‘ਤੇ ਹੋਣ ਤੋਂ ਰੋਕਣ ਲਈ ਰਣਨੀਤੀਆਂ ਵਿਕਸਤ ਕਰ ਸਕਦੇ ਹਾਂ।

ਜ਼ਿੰਮੇਵਾਰ AI ਲਾਗੂ ਕਰਨ ਲਈ ਸਿਫ਼ਾਰਸ਼ਾਂ

AI ਪ੍ਰਣਾਲੀਆਂ ਦੇ ਜ਼ਿੰਮੇਵਾਰੀ ਅਤੇ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਲਾਗੂ ਕਰਨ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ, ਹੇਠ ਲਿਖੀਆਂ ਸਿਫ਼ਾਰਸ਼ਾਂ ‘ਤੇ ਵਿਚਾਰ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ:

  • ਤੈਨਾਤੀ ਤੋਂ ਪਹਿਲਾਂ ਸੰਭਾਵੀ ਪੱਖਪਾਤਾਂ ਲਈ AI ਪ੍ਰਣਾਲੀਆਂ ਦਾ ਚੰਗੀ ਤਰ੍ਹਾਂ ਮੁਲਾਂਕਣ ਕਰੋ। ਇਸ ਵਿੱਚ ਕਿਸੇ ਵੀ ਖੇਤਰ ਦੀ ਪਛਾਣ ਕਰਨ ਲਈ ਵੱਖ-ਵੱਖ ਡੇਟਾਸੈਟਾਂ ਅਤੇ ਦ੍ਰਿਸ਼ਾਂ ‘ਤੇ AI ਸਿਸਟਮ ਦੀ ਜਾਂਚ ਕਰਨਾ ਸ਼ਾਮਲ ਹੈ ਜਿੱਥੇ ਇਸ ਵਿੱਚ ਪੱਖਪਾਤ ਹੋਣ ਦੀ ਸੰਭਾਵਨਾ ਹੋ ਸਕਦੀ ਹੈ।
  • ਪੱਖਪਾਤ ਨੂੰ ਘਟਾਉਣ ਲਈ ਵਾਧੂ ਸਿਖਲਾਈ ਡੇਟਾ ਪ੍ਰਦਾਨ ਕਰੋ। ਜਿੰਨਾ ਜ਼ਿਆਦਾ ਵਿਭਿੰਨ ਅਤੇ ਪ੍ਰਤੀਨਿਧੀ ਸਿਖਲਾਈ ਡੇਟਾ ਹੋਵੇਗਾ, ਓਨੀ ਹੀ ਘੱਟ ਸੰਭਾਵਨਾ ਹੈ ਕਿ AI ਸਿਸਟਮ ਪੱਖਪਾਤ ਵਿਕਸਤ ਕਰੇਗਾ।
  • ਉਹਨਾਂ ਐਲਗੋਰਿਦਮ ਦੀ ਵਰਤੋਂ ਕਰੋ ਜੋ ਪੱਖਪਾਤ ਲਈ ਘੱਟ ਸੰਵੇਦਨਸ਼ੀਲ ਹਨ। ਕੁਝ ਐਲਗੋਰਿਦਮ ਦੂਜਿਆਂ ਨਾਲੋਂ ਪੱਖਪਾਤ ਲਈ ਵਧੇਰੇ ਸੰਵੇਦਨਸ਼ੀਲ ਹੁੰਦੇ ਹਨ। ਕਿਸੇ ਖਾਸ ਕੰਮ ਲਈ ਇੱਕ ਐਲਗੋਰਿਦਮ ਦੀ ਚੋਣ ਕਰਦੇ ਸਮੇਂ, ਇਸਦੇ ਪੱਖਪਾਤ ਦੀ ਸੰਭਾਵਨਾ ‘ਤੇ ਵਿਚਾਰ ਕਰਨਾ ਮਹੱਤਵਪੂਰਨ ਹੈ।
  • ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ ਲਾਗੂ ਕਰੋ ਕਿ AI ਫੈਸਲੇ ਨਿਰਪੱਖ ਅਤੇ ਸਹੀ ਹਨ। ਮਨੁੱਖੀ ਨਿਗਰਾਨੀ AI ਫੈਸਲਿਆਂ ਵਿੱਚ ਕਿਸੇ ਵੀ ਪੱਖਪਾਤ ਦੀ ਪਛਾਣ ਕਰਨ ਅਤੇ ਠੀਕ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰ ਸਕਦੀ ਹੈ।
  • AI ਦੀ ਵਰਤੋਂ ਲਈ ਸਪਸ਼ਟ ਨੈਤਿਕ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ ਸਥਾਪਿਤ ਕਰੋ। ਇਹ ਦਿਸ਼ਾ-ਨਿਰਦੇਸ਼ ਨਿਰਪੱਖਤਾ, ਜਵਾਬਦੇਹੀ ਅਤੇ ਪਾਰਦਰਸ਼ਤਾ ਵਰਗੇ ਮੁੱਦਿਆਂ ਨੂੰ ਹੱਲ ਕਰਨੇ ਚਾਹੀਦੇ ਹਨ।

ਇਹਨਾਂ ਸਿਫ਼ਾਰਸ਼ਾਂ ਦੀ ਪਾਲਣਾ ਕਰਕੇ, ਸੰਸਥਾਵਾਂ ਇਹ ਯਕੀਨੀ ਬਣਾ ਸਕਦੀਆਂ ਹਨ ਕਿ AI ਸਿਸਟਮ ਇਸ ਤਰੀਕੇ ਨਾਲ ਵਰਤੇ ਜਾਂਦੇ ਹਨ ਜੋ ਲਾਭਦਾਇਕ ਅਤੇ ਜ਼ਿੰਮੇਵਾਰ ਦੋਵੇਂ ਹਨ। ਇਸ ਖੋਜ ਤੋਂ ਪ੍ਰਾਪਤ ਕੀਤੀਆਂ ਗਈਆਂ ਸੂਝਾਂ ਇੱਕ ਕੀਮਤੀ ਰੀਮਾਈਂਡਰ ਵਜੋਂ ਕੰਮ ਕਰਦੀਆਂ ਹਨ ਕਿ ਜਦੋਂ ਕਿ AI ਵਿੱਚ ਬਹੁਤ ਵੱਡਾ ਵਾਅਦਾ ਹੈ, ਇਸਦੇ ਲਾਗੂਕਰਨ ਲਈ ਸਾਵਧਾਨੀ ਅਤੇ ਨੈਤਿਕ ਸਿਧਾਂਤਾਂ ਪ੍ਰਤੀ ਵਚਨਬੱਧਤਾ ਨਾਲ ਸੰਪਰਕ ਕਰਨਾ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਕੇਵਲ ਤਦ ਹੀ ਅਸੀਂ AI ਦੀ ਪੂਰੀ ਸਮਰੱਥਾ ਨੂੰ ਵਰਤ ਸਕਦੇ ਹਾਂ ਜਦੋਂ ਕਿ ਇਸਦੇ ਸੰਭਾਵੀ ਖਤਰਿਆਂ ਤੋਂ ਸੁਰੱਖਿਆ ਕਰ ਸਕਦੇ ਹਾਂ।