ਹਾਲ ਹੀ ਦੇ ਅਧਿਐਨਾਂ ਨੇ ਇੱਕ ਚਿੰਤਾਜਨਕ ਰੁਝਾਨ ਪ੍ਰਗਟ ਕੀਤਾ ਹੈ: ਨਵੇਂ ChatGPT ਮਾਡਲ ਆਪਣੇ ਪੁਰਾਣੇ ਮਾਡਲਾਂ ਦੇ ਮੁਕਾਬਲੇ ਭਰਮਾਂ ਦੀ ਉੱਚ ਦਰ ਦਿਖਾ ਰਹੇ ਹਨ। ਇਹ ਖੋਜ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ (LLMs) ਵਿੱਚ ਉੱਨਤ ਸਮਰੱਥਾਵਾਂ ਅਤੇ ਭਰੋਸੇਯੋਗਤਾ ਦੇ ਵਿਚਕਾਰ ਵਪਾਰ-ਬੰਦਾਂ ਬਾਰੇ ਨਾਜ਼ੁਕ ਸਵਾਲ ਉਠਾਉਂਦੀ ਹੈ। ਆਓ ਇਹਨਾਂ ਖੋਜਾਂ ਦੇ ਵੇਰਵਿਆਂ ਵਿੱਚ ਡੂੰਘਾਈ ਨਾਲ ਜਾਂਚ ਕਰੀਏ ਅਤੇ ਸੰਭਾਵੀ ਪ੍ਰਭਾਵਾਂ ਦੀ ਪੜਚੋਲ ਕਰੀਏ।
ਵਰਤਾਰੇ ਨੂੰ ਸਮਝਣਾ
OpenAI ਦੇ ਅੰਦਰੂਨੀ ਟੈਸਟ, ਜਿਵੇਂ ਕਿ ਇੱਕ ਤਾਜ਼ਾ ਪੇਪਰ ਵਿੱਚ ਵਿਸਤਾਰ ਵਿੱਚ ਦੱਸਿਆ ਗਿਆ ਹੈ, o3 ਅਤੇ o4-mini ਵਰਗੇ ਮਾਡਲਾਂ ਵਿੱਚ ਭਰਮ ਦਰਾਂ ਵਿੱਚ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਵਾਧਾ ਦਰਸਾਉਂਦੇ ਹਨ। ਇਹ ਮਾਡਲ, ਉੱਨਤ ਤਰਕ ਅਤੇ ਮਲਟੀਮੋਡਲ ਸਮਰੱਥਾਵਾਂ ਨਾਲ ਤਿਆਰ ਕੀਤੇ ਗਏ ਹਨ, AI ਤਕਨਾਲੋਜੀ ਦੇ ਕੱਟਣ ਵਾਲੇ ਕਿਨਾਰੇ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ। ਉਹ ਚਿੱਤਰ ਬਣਾ ਸਕਦੇ ਹਨ, ਵੈੱਬ ਖੋਜਾਂ ਕਰ ਸਕਦੇ ਹਨ, ਕੰਮਾਂ ਨੂੰ ਸਵੈਚਾਲਤ ਕਰ ਸਕਦੇ ਹਨ, ਪਿਛਲੀਆਂ ਗੱਲਬਾਤਾਂ ਨੂੰ ਯਾਦ ਰੱਖ ਸਕਦੇ ਹਨ, ਅਤੇ ਗੁੰਝਲਦਾਰ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਹੱਲ ਕਰ ਸਕਦੇ ਹਨ। ਹਾਲਾਂਕਿ, ਇਹ ਤਰੱਕੀ ਇੱਕ ਕੀਮਤ ‘ਤੇ ਆਉਂਦੀ ਜਾਪਦੀ ਹੈ।
ਇਹਨਾਂ ਭਰਮਾਂ ਦੀ ਹੱਦ ਨੂੰ ਮਾਪਣ ਲਈ, OpenAI ਇੱਕ ਖਾਸ ਟੈਸਟ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ ਜਿਸਨੂੰ PersonQA ਕਿਹਾ ਜਾਂਦਾ ਹੈ। ਇਸ ਟੈਸਟ ਵਿੱਚ ਮਾਡਲ ਨੂੰ ਵੱਖ-ਵੱਖ ਵਿਅਕਤੀਆਂ ਬਾਰੇ ਤੱਥਾਂ ਦਾ ਇੱਕ ਸਮੂਹ ਦੇਣਾ ਅਤੇ ਫਿਰ ਉਹਨਾਂ ਵਿਅਕਤੀਆਂ ਬਾਰੇ ਸਵਾਲ ਪੁੱਛਣਾ ਸ਼ਾਮਲ ਹੈ। ਮਾਡਲ ਦੀ ਸਹੀ ਜਵਾਬ ਦੇਣ ਦੀ ਯੋਗਤਾ ਦੇ ਅਧਾਰ ‘ਤੇ ਇਸਦੀ ਸ਼ੁੱਧਤਾ ਦਾ ਮੁਲਾਂਕਣ ਕੀਤਾ ਜਾਂਦਾ ਹੈ।
ਪਿਛਲੇ ਮੁਲਾਂਕਣਾਂ ਵਿੱਚ, o1 ਮਾਡਲ ਨੇ ਸਿਰਫ 16% ਦੀ ਭਰਮ ਦਰ ਦੇ ਨਾਲ 47% ਦੀ ਸ਼ਲਾਘਾਯੋਗ ਸ਼ੁੱਧਤਾ ਦਰ ਪ੍ਰਾਪਤ ਕੀਤੀ। ਹਾਲਾਂਕਿ, ਜਦੋਂ o3 ਅਤੇ o4-mini ਨੂੰ ਉਸੇ ਮੁਲਾਂਕਣ ਦੇ ਅਧੀਨ ਕੀਤਾ ਗਿਆ, ਤਾਂ ਨਤੀਜੇ ਮਹੱਤਵਪੂਰਨ ਤੌਰ ‘ਤੇ ਵੱਖਰੇ ਸਨ।
o4-mini ਮਾਡਲ, ਘੱਟ ਸੰਸਾਰਕ ਗਿਆਨ ਵਾਲਾ ਇੱਕ ਛੋਟਾ ਰੂਪ ਹੋਣ ਕਰਕੇ, ਇੱਕ ਉੱਚ ਭਰਮ ਦਰ ਦਿਖਾਉਣ ਦੀ ਉਮੀਦ ਕੀਤੀ ਗਈ ਸੀ। ਫਿਰ ਵੀ, 48% ਦੀ ਅਸਲ ਦਰ ਹੈਰਾਨੀਜਨਕ ਤੌਰ ‘ਤੇ ਉੱਚੀ ਸੀ, ਇਹ ਮੰਨਦੇ ਹੋਏ ਕਿ o4-mini ਇੱਕ ਵਪਾਰਕ ਤੌਰ ‘ਤੇ ਉਪਲਬਧ ਉਤਪਾਦ ਹੈ ਜੋ ਵੈੱਬ ਖੋਜਾਂ ਅਤੇ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਵਿਆਪਕ ਤੌਰ ‘ਤੇ ਵਰਤਿਆ ਜਾਂਦਾ ਹੈ।
ਪੂਰੇ ਆਕਾਰ ਦੇ o3 ਮਾਡਲ ਨੇ ਵੀ ਭਰਮ ਕਰਨ ਦੀ ਇੱਕ ਚਿੰਤਾਜਨਕ ਪ੍ਰਵਿਰਤੀ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕੀਤਾ। ਇਸਦੇ ਜਵਾਬਾਂ ਦੇ 33% ਵਿੱਚ, ਮਾਡਲ ਨੇ ਜਾਣਕਾਰੀ ਬਣਾ ਕੇ ਪੇਸ਼ ਕੀਤੀ, ਜਿਸ ਨਾਲ o1 ਮਾਡਲ ਦੀ ਭਰਮ ਦਰ ਨੂੰ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਢੰਗ ਨਾਲ ਦੁੱਗਣਾ ਕਰ ਦਿੱਤਾ ਗਿਆ। ਇਸਦੇ ਬਾਵਜੂਦ, o3 ਨੇ ਇੱਕ ਉੱਚ ਸ਼ੁੱਧਤਾ ਦਰ ਵੀ ਪ੍ਰਾਪਤ ਕੀਤੀ, ਜਿਸਦਾ OpenAI ਇਸਦੇ ਸਮੁੱਚੇ ਤੌਰ ‘ਤੇ ਵਧੇਰੇ ਦਾਅਵੇ ਕਰਨ ਦੀ ਪ੍ਰਵਿਰਤੀ ਨੂੰ ਮੰਨਦਾ ਹੈ।
ਭਰਮਾਂ ਨੂੰ ਪਰਿਭਾਸ਼ਿਤ ਕਰਨਾ
AI ਦੇ ਸੰਦਰਭ ਵਿੱਚ, “ਭਰਮ” ਸ਼ਬਦ, ਇੱਕ ਮਾਡਲ ਦੀ ਜਵਾਬ ਪੈਦਾ ਕਰਨ ਦੀ ਪ੍ਰਵਿਰਤੀ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ ਜੋ ਤੱਥਾਂ ਦੇ ਤੌਰ ‘ਤੇ ਗਲਤ ਜਾਂ ਬੇਤੁਕੇ ਹੁੰਦੇ ਹਨ ਬਿਨਾਂ ਕਿਸੇ ਸਪੱਸ਼ਟ ਸਰੋਤ ਜਾਂ ਜਾਇਜ਼ਤਾ ਦੇ। ਇਹ ਸਿਰਫ਼ ਮਾੜੇ ਡੇਟਾ ਜਾਂ ਗਲਤ ਵਿਆਖਿਆ ਤੋਂ ਪੈਦਾ ਹੋਣ ਵਾਲੀਆਂ ਗਲਤੀਆਂ ਨਹੀਂ ਹਨ। ਇਸ ਦੀ ਬਜਾਏ, ਭਰਮ ਮਾਡਲ ਦੀ ਤਰਕ ਪ੍ਰਕਿਰਿਆ ਵਿੱਚ ਇੱਕ ਹੋਰ ਬੁਨਿਆਦੀ ਨੁਕਸ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ।
ਹਾਲਾਂਕਿ ਗਲਤ ਜਾਣਕਾਰੀ ਨਿਸ਼ਚਤ ਤੌਰ ‘ਤੇ ਵਿਭਿੰਨ ਸਰੋਤਾਂ ਤੋਂ ਪੈਦਾ ਹੋ ਸਕਦੀ ਹੈ, ਜਿਵੇਂ ਕਿ ਵਿਕੀਪੀਡੀਆ ਐਂਟਰੀਆਂ ਜਾਂ Reddit ਧਾਗੇ, ਇਹ ਉਦਾਹਰਣਾਂ ਟਰੇਸੇਬਲ ਗਲਤੀਆਂ ਵਰਗੀਆਂ ਹਨ ਜਿਨ੍ਹਾਂ ਨੂੰ ਖਾਸ ਡੇਟਾ ਪੁਆਇੰਟਾਂ ਲਈ ਜ਼ਿੰਮੇਵਾਰ ਠਹਿਰਾਇਆ ਜਾ ਸਕਦਾ ਹੈ। ਦੂਜੇ ਪਾਸੇ, ਭਰਮਾਂ ਨੂੰ ਅਨਿਸ਼ਚਿਤਤਾ ਦੇ ਪਲਾਂ ਵਿੱਚ AI ਮਾਡਲ ਦੀ ਤੱਥਾਂ ਦੀ ਕਾਢ ਦੁਆਰਾ ਦਰਸਾਇਆ ਗਿਆ ਹੈ, ਇੱਕ ਵਰਤਾਰਾ ਜਿਸਨੂੰ ਕੁਝ ਮਾਹਰਾਂ ਨੇ “ਰਚਨਾਤਮਕ ਅੰਤਰ-ਭਰਨ” ਕਿਹਾ ਹੈ।
ਇਸ ਬਿੰਦੂ ਨੂੰ ਦਰਸਾਉਣ ਲਈ, ਸਵਾਲ ‘ਤੇ ਵਿਚਾਰ ਕਰੋ, “ਵਰਤਮਾਨ ਵਿੱਚ ਉਪਲਬਧ ਸੱਤ iPhone 16 ਮਾਡਲ ਕਿਹੜੇ ਹਨ?” ਕਿਉਂਕਿ ਸਿਰਫ਼ Apple ਹੀ ਜਾਣਦਾ ਹੈ ਕਿ ਅਗਲਾ iPhone ਕੀ ਹੋਵੇਗਾ, ਇਸ ਲਈ LLM ਕੁਝ ਅਸਲ ਜਵਾਬ ਪ੍ਰਦਾਨ ਕਰਨ ਦੀ ਸੰਭਾਵਨਾ ਰੱਖਦਾ ਹੈ — ਅਤੇ ਫਿਰ ਕੰਮ ਨੂੰ ਪੂਰਾ ਕਰਨ ਲਈ ਵਾਧੂ ਮਾਡਲ ਬਣਾਉਂਦਾ ਹੈ। ਇਹ ਭਰਮ ਦੀ ਇੱਕ ਸਪੱਸ਼ਟ ਉਦਾਹਰਣ ਹੈ, ਜਿੱਥੇ ਮਾਡਲ ਕੰਮ ਨੂੰ ਪੂਰਾ ਕਰਨ ਲਈ ਜਾਣਕਾਰੀ ਤਿਆਰ ਕਰਦਾ ਹੈ, ਜਾਂ ਜਿਸਨੂੰ “ਰਚਨਾਤਮਕ ਅੰਤਰ-ਭਰਨ” ਕਿਹਾ ਜਾਂਦਾ ਹੈ।
ਸਿਖਲਾਈ ਡੇਟਾ ਦੀ ਭੂਮਿਕਾ
ChatGPT ਵਰਗੇ ਚੈਟਬੋਟਾਂ ਨੂੰ ਇੰਟਰਨੈੱਟ ਡੇਟਾ ਦੀ ਵਿਸ਼ਾਲ ਮਾਤਰਾ ‘ਤੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ। ਇਹ ਡੇਟਾ ਉਹਨਾਂ ਦੇ ਜਵਾਬਾਂ ਦੀ ਸਮੱਗਰੀ ਨੂੰ ਸੂਚਿਤ ਕਰਦਾ ਹੈ, ਪਰ ਇਹ ਉਹਨਾਂ ਦੇ ਜਵਾਬ ਦੇਣ ਦੇ ਤਰੀਕੇ ਨੂੰ ਵੀ ਆਕਾਰ ਦਿੰਦਾ ਹੈ। ਮਾਡਲ ਸਵਾਲਾਂ ਅਤੇ ਮੈਚਿੰਗ ਆਦਰਸ਼ ਜਵਾਬਾਂ ਦੀਆਂ ਅਣਗਿਣਤ ਉਦਾਹਰਣਾਂ ਦੇ ਸੰਪਰਕ ਵਿੱਚ ਆਉਂਦੇ ਹਨ, ਜੋ ਖਾਸ ਟੋਨ, ਰਵੱਈਏ ਅਤੇ ਨਿਮਰਤਾ ਦੇ ਪੱਧਰਾਂ ਨੂੰ ਮਜ਼ਬੂਤ ਕਰਦੇ ਹਨ।
ਇਹ ਸਿਖਲਾਈ ਪ੍ਰਕਿਰਿਆ ਅਣਜਾਣੇ ਵਿੱਚ ਭਰਮਾਂ ਦੀ ਸਮੱਸਿਆ ਵਿੱਚ ਯੋਗਦਾਨ ਪਾ ਸਕਦੀ ਹੈ। ਮਾਡਲਾਂ ਨੂੰ ਭਰੋਸੇਮੰਦ ਜਵਾਬ ਪ੍ਰਦਾਨ ਕਰਨ ਲਈ ਉਤਸ਼ਾਹਿਤ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਸਵਾਲ ਨੂੰ ਸੰਬੋਧਿਤ ਕਰਦੇ ਹਨ। ਇਹ ਉਹਨਾਂ ਨੂੰ ਸਵਾਲ ਦਾ ਜਵਾਬ ਦੇਣ ਨੂੰ ਤਰਜੀਹ ਦੇਣ ਵੱਲ ਲੈ ਜਾ ਸਕਦਾ ਹੈ, ਭਾਵੇਂ ਉਹਨਾਂ ਨੂੰ ਅਜਿਹਾ ਕਰਨ ਲਈ ਜਾਣਕਾਰੀ ਦੀ ਕਾਢ ਕੱਢਣੀ ਪਵੇ, ਇਸ ਗੱਲ ਨੂੰ ਮੰਨਣ ਦੀ ਬਜਾਏ ਕਿ ਉਹਨਾਂ ਨੂੰ ਜਵਾਬ ਨਹੀਂ ਪਤਾ।
ਸੰਖੇਪ ਵਿੱਚ, ਸਿਖਲਾਈ ਪ੍ਰਕਿਰਿਆ ਅਣਜਾਣੇ ਵਿੱਚ ਭਰੋਸੇਮੰਦ ਅਤੇ ਜਾਪਦੇ ਤੌਰ ‘ਤੇ ਗਿਆਨਵਾਨ ਜਵਾਬਾਂ ਨੂੰ ਇਨਾਮ ਦੇ ਸਕਦੀ ਹੈ, ਭਾਵੇਂ ਉਹ ਤੱਥਾਂ ਦੇ ਤੌਰ ‘ਤੇ ਗਲਤ ਹੋਣ। ਇਹ ਜਵਾਬ ਪੈਦਾ ਕਰਨ ਵੱਲ ਇੱਕ ਪੱਖਪਾਤ ਪੈਦਾ ਕਰ ਸਕਦਾ ਹੈ, ਉਹਨਾਂ ਦੀ ਸ਼ੁੱਧਤਾ ਦੀ ਪਰਵਾਹ ਕੀਤੇ ਬਿਨਾਂ, ਜੋ ਭਰਮਾਂ ਦੀ ਸਮੱਸਿਆ ਨੂੰ ਵਧਾ ਸਕਦਾ ਹੈ।
AI ਗਲਤੀਆਂ ਦੀ ਪ੍ਰਕਿਰਤੀ
AI ਗਲਤੀਆਂ ਅਤੇ ਮਨੁੱਖੀ ਗਲਤੀਆਂ ਵਿੱਚ ਸਮਾਨਤਾਵਾਂ ਖਿੱਚਣਾ ਆਕਰਸ਼ਕ ਹੈ। ਆਖਰਕਾਰ, ਇਨਸਾਨ ਗਲਤੀ ਰਹਿਤ ਨਹੀਂ ਹੁੰਦੇ, ਅਤੇ ਸਾਨੂੰ AI ਤੋਂ ਸੰਪੂਰਨ ਹੋਣ ਦੀ ਉਮੀਦ ਨਹੀਂ ਕਰਨੀ ਚਾਹੀਦੀ। ਹਾਲਾਂਕਿ, ਇਹ ਪਛਾਣਨਾ ਬਹੁਤ ਜ਼ਰੂਰੀ ਹੈ ਕਿ AI ਗਲਤੀਆਂ ਮਨੁੱਖੀ ਗਲਤੀਆਂ ਨਾਲੋਂ ਬੁਨਿਆਦੀ ਤੌਰ ‘ਤੇ ਵੱਖਰੀਆਂ ਪ੍ਰਕਿਰਿਆਵਾਂ ਤੋਂ ਪੈਦਾ ਹੁੰਦੀਆਂ ਹਨ।
AI ਮਾਡਲ ਝੂਠ ਨਹੀਂ ਬੋਲਦੇ, ਗਲਤਫਹਿਮੀਆਂ ਵਿਕਸਿਤ ਨਹੀਂ ਕਰਦੇ, ਜਾਂ ਉਸੇ ਤਰੀਕੇ ਨਾਲ ਜਾਣਕਾਰੀ ਨੂੰ ਗਲਤ ਤਰੀਕੇ ਨਾਲ ਯਾਦ ਨਹੀਂ ਕਰਦੇ ਜਿਸ ਤਰ੍ਹਾਂ ਮਨੁੱਖ ਕਰਦੇ ਹਨ। ਉਹਨਾਂ ਵਿੱਚ ਬੋਧਾਤਮਕ ਯੋਗਤਾਵਾਂ ਅਤੇ ਸੰਦਰਭਿਕ ਜਾਗਰੂਕਤਾ ਦੀ ਘਾਟ ਹੁੰਦੀ ਹੈ ਜੋ ਮਨੁੱਖੀ ਤਰਕ ਨੂੰ ਰੇਖਾਂਕਿਤ ਕਰਦੀ ਹੈ। ਇਸ ਦੀ ਬਜਾਏ, ਉਹ ਸੰਭਾਵਨਾਵਾਂ ਦੇ ਅਧਾਰ ‘ਤੇ ਕੰਮ ਕਰਦੇ ਹਨ, ਉਹਨਾਂ ਦੇ ਸਿਖਲਾਈ ਡੇਟਾ ਵਿੱਚ ਦੇਖੇ ਗਏ ਪੈਟਰਨਾਂ ਦੇ ਅਧਾਰ ‘ਤੇ ਇੱਕ ਵਾਕ ਵਿੱਚ ਅਗਲੇ ਸ਼ਬਦ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਦੇ ਹਨ।
ਇਸ ਸੰਭਾਵੀ ਪਹੁੰਚ ਦਾ ਮਤਲਬ ਹੈ ਕਿ AI ਮਾਡਲਾਂ ਵਿੱਚ ਸ਼ੁੱਧਤਾ ਜਾਂ ਗਲਤੀ ਦੀ ਸੱਚੀ ਸਮਝ ਨਹੀਂ ਹੁੰਦੀ ਹੈ। ਉਹ ਸਿਰਫ਼ ਸ਼ਬਦਾਂ ਦੇ ਸਭ ਤੋਂ ਸੰਭਾਵਿਤ ਕ੍ਰਮ ਨੂੰ ਉਹਨਾਂ ਦੇ ਸਿਖਲਾਈ ਡੇਟਾ ਤੋਂ ਸਿੱਖੇ ਗਏ ਅੰਕੜਾਤਮਕ ਸਬੰਧਾਂ ਦੇ ਅਧਾਰ ‘ਤੇ ਪੈਦਾ ਕਰਦੇ ਹਨ। ਇਹ ਜਾਪਦੇ ਤੌਰ ‘ਤੇ ਇਕਸਾਰ ਜਵਾਬਾਂ ਦੀ ਪੀੜ੍ਹੀ ਵੱਲ ਲੈ ਜਾ ਸਕਦਾ ਹੈ ਜੋ ਅਸਲ ਵਿੱਚ ਤੱਥਾਂ ਦੇ ਤੌਰ ‘ਤੇ ਗਲਤ ਹਨ।
ਹਾਲਾਂਕਿ ਮਾਡਲਾਂ ਨੂੰ ਪੂਰੇ ਇੰਟਰਨੈੱਟ ਦੀ ਜਾਣਕਾਰੀ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ, ਉਹਨਾਂ ਨੂੰ ਇਹ ਨਹੀਂ ਦੱਸਿਆ ਜਾਂਦਾ ਹੈ ਕਿ ਕਿਹੜੀ ਜਾਣਕਾਰੀ ਚੰਗੀ ਜਾਂ ਮਾੜੀ ਹੈ, ਸਹੀ ਜਾਂ ਗਲਤ ਹੈ — ਉਹਨਾਂ ਨੂੰ ਕੁਝ ਵੀ ਨਹੀਂ ਦੱਸਿਆ ਜਾਂਦਾ ਹੈ। ਉਹਨਾਂ ਕੋਲ ਮੌਜੂਦਾ ਬੁਨਿਆਦੀ ਗਿਆਨ ਜਾਂ ਅੰਡਰਲਾਈੰਗ ਸਿਧਾਂਤਾਂ ਦਾ ਇੱਕ ਸਮੂਹ ਵੀ ਨਹੀਂ ਹੈ ਜੋ ਉਹਨਾਂ ਨੂੰ ਜਾਣਕਾਰੀ ਨੂੰ ਆਪਣੇ ਆਪ ਛਾਂਟਣ ਵਿੱਚ ਮਦਦ ਕਰਦੇ ਹਨ। ਇਹ ਸਭ ਸਿਰਫ਼ ਇੱਕ ਨੰਬਰ ਗੇਮ ਹੈ — ਸ਼ਬਦਾਂ ਦੇ ਪੈਟਰਨ ਜੋ ਕਿਸੇ ਦਿੱਤੇ ਸੰਦਰਭ ਵਿੱਚ ਸਭ ਤੋਂ ਅਕਸਰ ਮੌਜੂਦ ਹੁੰਦੇ ਹਨ, LLM ਦਾ “ਸੱਚ” ਬਣ ਜਾਂਦੇ ਹਨ।
ਚੁਣੌਤੀ ਨੂੰ ਸੰਬੋਧਿਤ ਕਰਨਾ
ਉੱਨਤ AI ਮਾਡਲਾਂ ਵਿੱਚ ਭਰਮਾਂ ਦੀ ਵੱਧ ਰਹੀ ਦਰ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਚੁਣੌਤੀ ਪੇਸ਼ ਕਰਦੀ ਹੈ। OpenAI ਅਤੇ ਹੋਰ AI ਡਿਵੈਲਪਰ ਇਸ ਸਮੱਸਿਆ ਨੂੰ ਸਮਝਣ ਅਤੇ ਘਟਾਉਣ ਲਈ ਸਰਗਰਮੀ ਨਾਲ ਕੰਮ ਕਰ ਰਹੇ ਹਨ। ਹਾਲਾਂਕਿ, ਭਰਮਾਂ ਦੇ ਅੰਤਰੀਵ ਕਾਰਨ ਪੂਰੀ ਤਰ੍ਹਾਂ ਸਮਝ ਨਹੀਂ ਆਏ ਹਨ, ਅਤੇ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਹੱਲ ਲੱਭਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਜਾਰੀ ਹੈ।
ਇੱਕ ਸੰਭਾਵੀ ਪਹੁੰਚ ਸਿਖਲਾਈ ਡੇਟਾ ਦੀ ਗੁਣਵੱਤਾ ਅਤੇ ਵਿਭਿੰਨਤਾ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣਾ ਹੈ। ਮਾਡਲਾਂ ਨੂੰ ਵਧੇਰੇ ਸਹੀ ਅਤੇ ਵਿਆਪਕ ਜਾਣਕਾਰੀ ਦੇ ਸਾਹਮਣੇ ਲਿਆ ਕੇ, ਡਿਵੈਲਪਰ ਉਹਨਾਂ ਦੇ ਗਲਤ ਜਾਣਕਾਰੀ ਨੂੰ ਸਿੱਖਣ ਅਤੇ ਜਾਰੀ ਰੱਖਣ ਦੀ ਸੰਭਾਵਨਾ ਨੂੰ ਘਟਾ ਸਕਦੇ ਹਨ।
ਇਕ ਹੋਰ ਪਹੁੰਚ ਭਰਮਾਂ ਦਾ ਪਤਾ ਲਗਾਉਣ ਅਤੇ ਰੋਕਣ ਲਈ ਵਧੇਰੇ ਵਧੀਆ ਤਕਨੀਕਾਂ ਵਿਕਸਿਤ ਕਰਨਾ ਹੈ। ਇਸ ਵਿੱਚ ਮਾਡਲਾਂ ਨੂੰ ਇਹ ਪਛਾਣਨਾ ਸਿਖਲਾਈ ਦੇਣਾ ਸ਼ਾਮਲ ਹੋ ਸਕਦਾ ਹੈ ਕਿ ਉਹ ਕਿਸੇ ਖਾਸ ਜਾਣਕਾਰੀ ਬਾਰੇ ਕਦੋਂ ਅਨਿਸ਼ਚਿਤ ਹਨ ਅਤੇ ਲੋੜੀਂਦੇ ਸਬੂਤਾਂ ਤੋਂ ਬਿਨਾਂ ਦਾਅਵੇ ਕਰਨ ਤੋਂ ਪਰਹੇਜ਼ ਕਰਨਾ ਸ਼ਾਮਲ ਹੋ ਸਕਦਾ ਹੈ।
ਇਸ ਦੌਰਾਨ, OpenAI ਨੂੰ ਇੱਕ ਥੋੜ੍ਹੇ ਸਮੇਂ ਦੇ ਹੱਲ ਦੀ ਭਾਲ ਕਰਨ ਦੇ ਨਾਲ-ਨਾਲ ਇਸਦੇ ਮੂਲ ਕਾਰਨ ਦੀ ਖੋਜ ਜਾਰੀ ਰੱਖਣ ਦੀ ਲੋੜ ਹੋ ਸਕਦੀ ਹੈ। ਆਖ਼ਰਕਾਰ, ਇਹ ਮਾਡਲ ਪੈਸਾ ਕਮਾਉਣ ਵਾਲੇ ਉਤਪਾਦ ਹਨ ਅਤੇ ਉਹਨਾਂ ਨੂੰ ਵਰਤੋਂ ਯੋਗ ਸਥਿਤੀ ਵਿੱਚ ਹੋਣ ਦੀ ਲੋੜ ਹੈ। ਇੱਕ ਵਿਚਾਰ ਕਿਸੇ ਕਿਸਮ ਦਾ ਸਮੁੱਚਾ ਉਤਪਾਦ ਬਣਾਉਣਾ ਹੋਵੇਗਾ — ਇੱਕ ਚੈਟ ਇੰਟਰਫੇਸ ਜਿਸਦੀ ਕਈ ਵੱਖ-ਵੱਖ OpenAI ਮਾਡਲਾਂ ਤੱਕ ਪਹੁੰਚ ਹੋਵੇ।
ਜਦੋਂ ਕਿਸੇ ਸਵਾਲ ਲਈ ਉੱਨਤ ਤਰਕ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ, ਤਾਂ ਇਹ GPT-4o ‘ਤੇ ਬੁਲਾਏਗਾ, ਅਤੇ ਜਦੋਂ ਇਹ ਭਰਮਾਂ ਦੀ ਸੰਭਾਵਨਾ ਨੂੰ ਘੱਟ ਤੋਂ ਘੱਟ ਕਰਨਾ ਚਾਹੁੰਦਾ ਹੈ, ਤਾਂ ਇਹ ਇੱਕ ਪੁਰਾਣੇ ਮਾਡਲ ਜਿਵੇਂ ਕਿ o1 ‘ਤੇ ਬੁਲਾਏਗਾ। ਸ਼ਾਇਦ ਕੰਪਨੀ ਹੋਰ ਵੀ ਵਧੀਆ ਜਾਣ ਅਤੇ ਇੱਕ ਸਿੰਗਲ ਸਵਾਲ ਦੇ ਵੱਖ-ਵੱਖ ਤੱਤਾਂ ਦਾ ਧਿਆਨ ਰੱਖਣ ਲਈ ਵੱਖ-ਵੱਖ ਮਾਡਲਾਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੇ ਯੋਗ ਹੋਵੇ, ਅਤੇ ਫਿਰ ਅੰਤ ਵਿੱਚ ਇਸ ਸਭ ਨੂੰ ਇਕੱਠਾ ਕਰਨ ਲਈ ਇੱਕ ਵਾਧੂ ਮਾਡਲ ਦੀ ਵਰਤੋਂ ਕਰੇ। ਕਿਉਂਕਿ ਇਹ ਜ਼ਰੂਰੀ ਤੌਰ ‘ਤੇ ਕਈ AI ਮਾਡਲਾਂ ਵਿਚਕਾਰ ਟੀਮ ਵਰਕ ਹੋਵੇਗਾ, ਸ਼ਾਇਦ ਕਿਸੇ ਕਿਸਮ ਦੀ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਕਰਨ ਵਾਲੀ ਪ੍ਰਣਾਲੀ ਨੂੰ ਵੀ ਲਾਗੂ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ।
ਸ਼ੁੱਧਤਾ ਦਰਾਂ ਨੂੰ ਵਧਾਉਣਾ ਮੁੱਖ ਟੀਚਾ ਨਹੀਂ ਹੈ। ਮੁੱਖ ਟੀਚਾ ਭਰਮ ਦਰਾਂ ਨੂੰ ਘਟਾਉਣਾ ਹੈ, ਜਿਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਸਾਨੂੰ “ਮੈਨੂੰ ਨਹੀਂ ਪਤਾ” ਕਹਿਣ ਵਾਲੇ ਜਵਾਬਾਂ ਦੇ ਨਾਲ-ਨਾਲ ਸਹੀ ਜਵਾਬਾਂ ਨੂੰ ਵੀ ਮਹੱਤਵ ਦੇਣ ਦੀ ਲੋੜ ਹੈ।
ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਦੀ ਮਹੱਤਤਾ
AI ਮਾਡਲਾਂ ਵਿੱਚ ਭਰਮਾਂ ਦੀ ਵੱਧ ਰਹੀ ਪ੍ਰਚਲਤਾ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਦੀ ਮਹੱਤਤਾ ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ। ਹਾਲਾਂਕਿ ਇਹ ਮਾਡਲ ਜਾਣਕਾਰੀ ਪ੍ਰਾਪਤ ਕਰਨ ਅਤੇ ਟਾਸਕ ਆਟੋਮੇਸ਼ਨ ਲਈ ਕੀਮਤੀ ਸੰਦ ਹੋ ਸਕਦੇ ਹਨ, ਪਰ ਉਹਨਾਂ ਨੂੰ ਸੱਚ ਦੇ ਗਲਤੀ ਰਹਿਤ ਸਰੋਤਾਂ ਵਜੋਂ ਨਹੀਂ ਮੰਨਿਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ।
ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਹਮੇਸ਼ਾਂ AI ਮਾਡਲਾਂ ਦੇ ਆਉਟਪੁੱਟ ਦੀ ਵਿਆਖਿਆ ਕਰਦੇ ਸਮੇਂ ਸਾਵਧਾਨੀ ਵਰਤਣੀ ਚਾਹੀਦੀ ਹੈ ਅਤੇ ਉਹਨਾਂ ਦੁਆਰਾ ਪ੍ਰਾਪਤ ਕੀਤੀ ਕਿਸੇ ਵੀ ਜਾਣਕਾਰੀ ਨੂੰ ਸੁਤੰਤਰ ਤੌਰ ‘ਤੇ ਤਸਦੀਕ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ। ਇਹ ਖਾਸ ਤੌਰ ‘ਤੇ ਮਹੱਤਵਪੂਰਨ ਹੈ ਜਦੋਂ ਸੰਵੇਦਨਸ਼ੀਲ ਜਾਂ ਨਤੀਜੇ ਵਜੋਂ ਮਾਮਲਿਆਂ ਨਾਲ ਨਜਿੱਠਣਾ ਹੋਵੇ।
AI-ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀ ਗਈ ਸਮੱਗਰੀ ਲਈ ਇੱਕ ਨਾਜ਼ੁਕ ਅਤੇ ਸੰਦੇਹਵਾਦੀ ਪਹੁੰਚ ਅਪਣਾ ਕੇ, ਅਸੀਂ ਭਰਮਾਂ ਨਾਲ ਜੁੜੇ ਜੋਖਮਾਂ ਨੂੰ ਘਟਾ ਸਕਦੇ ਹਾਂ ਅਤੇ ਇਹ ਯਕੀਨੀ ਬਣਾ ਸਕਦੇ ਹਾਂ ਕਿ ਅਸੀਂ ਸਹੀ ਜਾਣਕਾਰੀ ਦੇ ਅਧਾਰ ‘ਤੇ ਸੂਚਿਤ ਫੈਸਲੇ ਲੈ ਰਹੇ ਹਾਂ। ਜੇ ਤੁਸੀਂ LLMs ਵਿੱਚ ਵੱਡੇ ਹੋ, ਤਾਂ ਉਹਨਾਂ ਦੀ ਵਰਤੋਂ ਬੰਦ ਕਰਨ ਦੀ ਕੋਈ ਲੋੜ ਨਹੀਂ ਹੈ — ਪਰ ਸਮਾਂ ਬਚਾਉਣ ਦੀ ਇੱਛਾ ਨੂੰ ਨਤੀਜਿਆਂ ਦੀ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਕਰਨ ਦੀ ਜ਼ਰੂਰਤ ‘ਤੇ ਜਿੱਤ ਨਾ ਦਿਓ। ਹਮੇਸ਼ਾ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਕਰੋ!
AI ਦੇ ਭਵਿੱਖ ਲਈ ਪ੍ਰਭਾਵ
ਭਰਮਾਂ ਦੀ ਚੁਣੌਤੀ ਦਾ AI ਦੇ ਭਵਿੱਖ ਲਈ ਮਹੱਤਵਪੂਰਨ ਪ੍ਰਭਾਵ ਹੈ। ਜਿਵੇਂ ਕਿ AI ਮਾਡਲ ਸਾਡੀਆਂ ਜ਼ਿੰਦਗੀਆਂ ਵਿੱਚ ਵਧੇਰੇ ਏਕੀਕ੍ਰਿਤ ਹੁੰਦੇ ਜਾਂਦੇ ਹਨ, ਇਹ ਜ਼ਰੂਰੀ ਹੈ ਕਿ ਉਹ ਭਰੋਸੇਮੰਦ ਅਤੇ ਭਰੋਸੇਯੋਗ ਹੋਣ। ਜੇ AI ਮਾਡਲ ਗਲਤ ਜਾਂ ਗੁੰਮਰਾਹਕੁੰਨ ਜਾਣਕਾਰੀ ਪੈਦਾ ਕਰਨ ਲਈ ਪ੍ਰੇਰਿਤ ਹੁੰਦੇ ਹਨ, ਤਾਂ ਇਹ ਜਨਤਕ ਵਿਸ਼ਵਾਸ ਨੂੰ ਖਤਮ ਕਰ ਸਕਦਾ ਹੈ ਅਤੇ ਉਹਨਾਂ ਦੇ ਵਿਆਪਕ ਗ੍ਰਹਿਣ ਵਿੱਚ ਰੁਕਾਵਟ ਪਾ ਸਕਦਾ ਹੈ।
AI ਮਾਡਲਾਂ ਦੀ ਸ਼ੁੱਧਤਾ ਵਿੱਚ ਸੁਧਾਰ ਕਰਨ ਲਈ ਹੀ ਨਹੀਂ, ਸਗੋਂ ਉਹਨਾਂ ਦੀ ਨੈਤਿਕ ਅਤੇ ਜ਼ਿੰਮੇਵਾਰ ਵਰਤੋਂ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਵੀ ਭਰਮਾਂ ਦੀ ਸਮੱਸਿਆ ਨੂੰ ਹੱਲ ਕਰਨਾ ਬਹੁਤ ਜ਼ਰੂਰੀ ਹੈ। AI ਪ੍ਰਣਾਲੀਆਂ ਵਿਕਸਿਤ ਕਰਕੇ ਜੋ ਭਰਮਾਂ ਲਈ ਘੱਟ ਸੰਵੇਦਨਸ਼ੀਲ ਹਨ, ਅਸੀਂ ਗਲਤ ਜਾਣਕਾਰੀ ਅਤੇ ਧੋਖੇ ਦੇ ਜੋਖਮਾਂ ਨੂੰ ਘਟਾਉਂਦੇ ਹੋਏ ਚੰਗੇ ਲਈ ਉਹਨਾਂ ਦੀ ਸੰਭਾਵਨਾ ਨੂੰ ਵਰਤ ਸਕਦੇ ਹਾਂ।