Foresight ਇੱਕ ਨੈਸ਼ਨਲ-ਸਕੇਲ ਜਨਰੇਟਿਵ ਏਆਈ ਮਾਡਲ ਹੈ ਜਿਸਨੂੰ 2023 ਵਿੱਚ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਸੀ। ਸ਼ੁਰੂ ਵਿੱਚ, ਇਸਨੇ OpenAI ਦੇ GPT-3 ਦੀ ਵਰਤੋਂ ਕੀਤੀ, ਜੋ ChatGPT ਦੇ ਪਹਿਲੇ ਸੰਸਕਰਣ ਨੂੰ ਚਲਾਉਣ ਵਾਲੀ ਤਕਨਾਲੋਜੀ ਹੈ। ਇਸਨੂੰ ਲੰਡਨ ਦੇ ਦੋ ਹਸਪਤਾਲਾਂ ਤੋਂ 1.5 ਮਿਲੀਅਨ ਮਰੀਜ਼ ਰਿਕਾਰਡਾਂ ‘ਤੇ ਸਿਖਲਾਈ ਦਿੱਤੀ ਗਈ ਸੀ। ਯੂਨੀਵਰਸਿਟੀ ਕਾਲਜ ਲੰਡਨ ਦੇ ਕ੍ਰਿਸ ਟੌਮਲਿਨਸਨ ਅਤੇ ਉਨ੍ਹਾਂ ਦੀ ਟੀਮ ਨੇ ਉਦੋਂ ਤੋਂ Foresight ਦਾ ਵਿਸਤਾਰ ਕੀਤਾ ਹੈ, ਇਸਨੂੰ ਦੁਨੀਆ ਦਾ ਪਹਿਲਾ "ਨੈਸ਼ਨਲ-ਸਕੇਲ ਜਨਰੇਟਿਵ ਏਆਈ ਮਾਡਲ ਆਫ਼ ਹੈਲਥ ਡਾਟਾ" ਦੱਸਿਆ ਹੈ। ਇਹ ਸੁਧਾਰਿਆ ਹੋਇਆ ਸੰਸਕਰਣ Meta ਦੇ ਓਪਨ-ਸੋਰਸ LLM Llama 2 ਦਾ ਲਾਭ ਲੈਂਦਾ ਹੈ ਅਤੇ ਨਵੰਬਰ 2018 ਤੋਂ ਦਸੰਬਰ 2023 ਤੱਕ NHS ਇੰਗਲੈਂਡ ਦੁਆਰਾ ਰੁਟੀਨ ਵਜੋਂ ਇਕੱਤਰ ਕੀਤੇ ਗਏ ਅੱਠ ਵੱਖ-ਵੱਖ ਡਾਟਾਸੈਟਾਂ ਨੂੰ ਸ਼ਾਮਲ ਕਰਦਾ ਹੈ। ਇਹਨਾਂ ਡਾਟਾਸੈਟਾਂ ਵਿੱਚ ਬਾਹਰੀ ਮਰੀਜ਼ਾਂ ਦੀਆਂ ਮੁਲਾਕਾਤਾਂ, ਹਸਪਤਾਲ ਵਿੱਚ ਦਾਖਲੇ, ਟੀਕਾਕਰਨ ਰਿਕਾਰਡ, ਅਤੇ ਹੋਰ ਸਿਹਤ-ਸਬੰਧਤ ਘਟਨਾਵਾਂ ਸ਼ਾਮਲ ਹਨ, ਜੋ 57 ਮਿਲੀਅਨ ਵਿਅਕਤੀਆਂ ਵਿੱਚ 10 ਬਿਲੀਅਨ ਡਾਟਾ ਪੁਆਇੰਟਾਂ ਤੱਕ ਪਹੁੰਚਦੀਆਂ ਹਨ - ਅਸਲ ਵਿੱਚ ਇੰਗਲੈਂਡ ਦੀ ਪੂਰੀ ਆਬਾਦੀ।
ਜਾਰੀ ਟੈਸਟਿੰਗ ਦੇ ਕਾਰਨ ਜਨਤਕ ਤੌਰ ‘ਤੇ ਉਪਲਬਧ ਪ੍ਰਦਰਸ਼ਨ ਮੈਟ੍ਰਿਕਸ ਦੀ ਘਾਟ ਦੇ ਬਾਵਜੂਦ, ਟੌਮਲਿਨਸਨ ਦਾ ਦਾਅਵਾ ਹੈ ਕਿ Foresight ਆਖਿਰਕਾਰ ਵਿਅਕਤੀਗਤ ਤੌਰ ‘ਤੇ ਨਿਦਾਨ ਦੀ ਸਹੂਲਤ ਦੇ ਸਕਦਾ ਹੈ ਅਤੇ ਵਿਆਪਕ ਸਿਹਤ ਰੁਝਾਨਾਂ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰ ਸਕਦਾ ਹੈ, ਜਿਵੇਂ ਕਿ ਹਸਪਤਾਲ ਵਿੱਚ ਦਾਖਲਾ ਜਾਂ ਦਿਲ ਦੇ ਦੌਰੇ। ਉਸਨੇ 6 ਮਈ ਨੂੰ ਇੱਕ ਪ੍ਰੈਸ ਕਾਨਫਰੰਸ ਦੌਰਾਨ ਮਾਡਲ ਦੀ ਸੰਭਾਵਨਾ ‘ਤੇ ਜ਼ੋਰ ਦਿੱਤਾ ਕਿ ਬਿਮਾਰੀ ਦੀਆਂ ਜਟਿਲਤਾਵਾਂ ਦੀ ਪਹਿਲਾਂ ਤੋਂ ਭਵਿੱਖਬਾਣੀ ਕੀਤੀ ਜਾ ਸਕੇ, ਜਿਸ ਨਾਲ ਛੇਤੀ ਦਖਲਅੰਦਾਜ਼ੀ ਅਤੇ ਵੱਡੇ ਪੱਧਰ ‘ਤੇ ਰੋਕਥਾਮ ਵਾਲੀ ਸਿਹਤ ਸੰਭਾਲ ਵੱਲ ਤਬਦੀਲੀ ਹੋ ਸਕੇ।
ਨਿੱਜਤਾ ਅਤੇ ਡਾਟਾ ਸੁਰੱਖਿਆ ਚਿੰਤਾਵਾਂ
ਇੱਕ AI ਮਾਡਲ ਵਿੱਚ ਅਜਿਹੇ ਵਿਆਪਕ ਮੈਡੀਕਲ ਡਾਟਾ ਫੀਡ ਕਰਨ ਦੀ ਸੰਭਾਵਨਾ ਨੇ ਨਿੱਜਤਾ ਬਾਰੇ ਚਿੰਤਾਵਾਂ ਨੂੰ ਜਨਮ ਦਿੱਤਾ ਹੈ। ਹਾਲਾਂਕਿ ਖੋਜਕਰਤਾਵਾਂ ਦਾ ਦਾਅਵਾ ਹੈ ਕਿ AI ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਤੋਂ ਪਹਿਲਾਂ ਸਾਰੇ ਰਿਕਾਰਡਾਂ ਨੂੰ "ਡੀ-ਆਈਡੈਂਟੀਫਾਈਡ" ਕੀਤਾ ਗਿਆ ਸੀ, ਪਰ ਡਾਟਾ ਪੈਟਰਨ ਵਿਸ਼ਲੇਸ਼ਣ ਦੁਆਰਾ ਮੁੜ-ਪਛਾਣ ਦਾ ਖਤਰਾ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਚਿੰਤਾ ਬਣਿਆ ਹੋਇਆ ਹੈ, ਖਾਸ ਕਰਕੇ ਵੱਡੇ ਡਾਟਾਸੈਟਾਂ ਨਾਲ।
ਆਕਸਫੋਰਡ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਲੂਕ ਰੋਚਰ ਸ਼ਕਤੀਸ਼ਾਲੀ ਜਨਰੇਟਿਵ ਏਆਈ ਮਾਡਲਾਂ ਬਣਾਉਂਦੇ ਸਮੇਂ ਮਰੀਜ਼ ਦੀ ਨਿੱਜਤਾ ਦੀ ਰਾਖੀ ਕਰਨ ਦੀ ਅੰਦਰੂਨੀ ਚੁਣੌਤੀ ਨੂੰ ਉਜਾਗਰ ਕਰਦੇ ਹਨ। ਉਹ ਡਾਟਾ ਅਮੀਰੀ ਜੋ ਡਾਟਾ ਨੂੰ AI ਉਦੇਸ਼ਾਂ ਲਈ ਕੀਮਤੀ ਬਣਾਉਂਦੀ ਹੈ, ਇਸਨੂੰ ਅਗਿਆਤ ਕਰਨਾ ਵੀ ਬਹੁਤ ਮੁਸ਼ਕਲ ਬਣਾਉਂਦੀ ਹੈ। ਰੋਚਰ ਸੁਰੱਖਿਅਤ ਵਰਤੋਂ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਇਹਨਾਂ ਮਾਡਲਾਂ ‘ਤੇ ਸਖਤ NHS ਨਿਯੰਤਰਣ ਦੀ ਵਕਾਲਤ ਕਰਦਾ ਹੈ।
NHS ਡਿਜੀਟਲ ਦੇ ਮਾਈਕਲ ਚੈਪਮੈਨ ਮੁੜ-ਪਛਾਣ ਦੇ ਅੰਦਰੂਨੀ ਖਤਰੇ ਨੂੰ ਸਵੀਕਾਰ ਕਰਦੇ ਹਨ, ਭਾਵੇਂ ਡੀ-ਆਈਡੈਂਟੀਫਾਈਡ ਡਾਟਾ ਨਾਲ ਵੀ। ਹਾਲਾਂਕਿ ਸਿੱਧੇ ਪਛਾਣਕਰਤਾਵਾਂ ਨੂੰ ਹਟਾ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ, ਪਰ ਸਿਹਤ ਡਾਟਾ ਦੀ ਅਮੀਰੀ ਇਸਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਗੁਮਨਾਮਤਾ ਦੀ ਗਰੰਟੀ ਦੇਣਾ ਮੁਸ਼ਕਲ ਬਣਾਉਂਦੀ ਹੈ।
ਇਸ ਖਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ, ਚੈਪਮੈਨ ਨੇ ਕਿਹਾ ਕਿ AI ਇੱਕ "ਸੁਰੱਖਿਅਤ" NHS ਡਾਟਾ ਵਾਤਾਵਰਣ ਦੇ ਅੰਦਰ ਕੰਮ ਕਰਦਾ ਹੈ, ਜਾਣਕਾਰੀ ਲੀਕ ਹੋਣ ਨੂੰ ਸੀਮਤ ਕਰਦਾ ਹੈ ਅਤੇ ਸਿਰਫ਼ ਪ੍ਰਵਾਨਿਤ ਖੋਜਕਰਤਾਵਾਂ ਨੂੰ ਹੀ ਪਹੁੰਚ ਯਕੀਨੀ ਬਣਾਉਂਦਾ ਹੈ। ਐਮਾਜ਼ਾਨ ਵੈੱਬ ਸਰਵਿਸਿਜ਼ ਅਤੇ ਡਾਟਾਬ੍ਰਿਕਸ ਕੰਪਿਊਟੇਸ਼ਨਲ ਬੁਨਿਆਦੀ ਢਾਂਚਾ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਨ ਪਰ ਡਾਟਾ ਤੱਕ ਪਹੁੰਚ ਨਹੀਂ ਕਰ ਸਕਦੇ।
ਇੰਪੀਰੀਅਲ ਕਾਲਜ ਲੰਡਨ ਦੇ ਯਵੇਸ-ਅਲੈਗਜ਼ੈਂਡਰ ਡੀ ਮੋਂਟਜੋਏ ਸਿਖਲਾਈ ਡਾਟਾ ਨੂੰ ਯਾਦ ਕਰਨ ਦੀ ਮਾਡਲ ਦੀ ਯੋਗਤਾ ਦੀ ਜਾਂਚ ਕਰਨ ਦਾ ਸੁਝਾਅ ਦਿੰਦੇ ਹਨ ਤਾਂ ਜੋ ਸੰਭਾਵੀ ਜਾਣਕਾਰੀ ਲੀਕ ਹੋਣ ਦਾ ਪਤਾ ਲਗਾਇਆ ਜਾ ਸਕੇ। ਜਦੋਂ ਨਿਊ ਸਾਇੰਟਿਸਟ ਦੁਆਰਾ ਪੁੱਛਿਆ ਗਿਆ, ਤਾਂ ਟੌਮਲਿਨਸਨ ਨੇ ਮੰਨਿਆ ਕਿ Foresight ਟੀਮ ਨੇ ਅਜੇ ਤੱਕ ਇਹ ਟੈਸਟ ਨਹੀਂ ਕੀਤੇ ਹਨ ਪਰ ਭਵਿੱਖ ਵਿੱਚ ਅਜਿਹਾ ਕਰਨ ਦੀ ਯੋਜਨਾ ਬਣਾਈ ਹੈ।
ਜਨਤਕ ਭਰੋਸਾ ਅਤੇ ਡਾਟਾ ਵਰਤੋਂ
ਆਕਸਫੋਰਡ ਯੂਨੀਵਰਸਿਟੀ ਦੀ ਕੈਰੋਲੀਨ ਗ੍ਰੀਨ ਜਨਤਕ ਭਰੋਸਾ ਬਣਾਈ ਰੱਖਣ ਲਈ ਡਾਟਾ ਵਰਤੋਂ ਨੂੰ ਜਨਤਾ ਤੱਕ ਪਹੁੰਚਾਉਣ ਦੀ ਮਹੱਤਤਾ ‘ਤੇ ਜ਼ੋਰ ਦਿੰਦੀ ਹੈ। ਗੁਮਨਾਮ ਕਰਨ ਦੀਆਂ ਕੋਸ਼ਿਸ਼ਾਂ ਦੇ ਬਾਵਜੂਦ, ਲੋਕ ਆਮ ਤੌਰ ‘ਤੇ ਆਪਣੇ ਡਾਟਾ ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਨਾ ਅਤੇ ਇਸਦੀ ਮੰਜ਼ਿਲ ਨੂੰ ਸਮਝਣਾ ਚਾਹੁੰਦੇ ਹਨ, ਜੋ ਉਹਨਾਂ ਨੂੰ ਇਸਦੀ ਨੈਤਿਕਤਾ ਬਾਰੇ ਬਹੁਤ ਜ਼ੋਰਦਾਰ ਮਹਿਸੂਸ ਕਰਵਾਉਂਦਾ ਹੈ।
ਮੌਜੂਦਾ ਨਿਯੰਤਰਣ ਵਿਅਕਤੀਆਂ ਲਈ Foresight ਦੁਆਰਾ ਡਾਟਾ ਵਰਤੋਂ ਤੋਂ ਬਾਹਰ ਹੋਣ ਲਈ ਸੀਮਤ ਵਿਕਲਪ ਪੇਸ਼ ਕਰਦੇ ਹਨ। ਰਾਸ਼ਟਰੀ ਤੌਰ ‘ਤੇ ਇਕੱਤਰ ਕੀਤੇ NHS ਡਾਟਾਸੈਟਾਂ ਤੋਂ ਡਾਟਾ ਦੀ ਵਰਤੋਂ ਮਾਡਲ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਕੀਤੀ ਜਾਂਦੀ ਹੈ, ਅਤੇ ਮੌਜੂਦਾ ਆਪਟ-ਆਊਟ ਵਿਧੀ ਲਾਗੂ ਨਹੀਂ ਹੁੰਦੀ ਕਿਉਂਕਿ NHS ਇੰਗਲੈਂਡ ਦੇ ਇੱਕ ਬੁਲਾਰੇ ਦੇ ਅਨੁਸਾਰ, ਡਾਟਾ ਨੂੰ "ਡੀ-ਆਈਡੈਂਟੀਫਾਈਡ" ਕੀਤਾ ਗਿਆ ਹੈ। ਹਾਲਾਂਕਿ, ਜਿਨ੍ਹਾਂ ਵਿਅਕਤੀਆਂ ਨੇ ਆਪਣੇ ਪਰਿਵਾਰਕ ਡਾਕਟਰ ਤੋਂ ਡਾਟਾ ਸਾਂਝਾ ਕਰਨ ਤੋਂ ਬਾਹਰ ਹੋਣ ਦੀ ਚੋਣ ਕੀਤੀ ਹੈ, ਉਹਨਾਂ ਦਾ ਡਾਟਾ ਮਾਡਲ ਵਿੱਚ ਸ਼ਾਮਲ ਨਹੀਂ ਕੀਤਾ ਜਾਵੇਗਾ।
GDPR ਅਤੇ ਡਾਟਾ ਗੁਮਨਾਮੀ
ਜਨਰਲ ਡਾਟਾ ਪ੍ਰੋਟੈਕਸ਼ਨ ਰੈਗੂਲੇਸ਼ਨ (GDPR) ਇਹ ਆਦੇਸ਼ ਦਿੰਦਾ ਹੈ ਕਿ ਵਿਅਕਤੀਆਂ ਕੋਲ ਆਪਣੇ ਨਿੱਜੀ ਡਾਟਾ ਦੀ ਵਰਤੋਂ ਲਈ ਸਹਿਮਤੀ ਵਾਪਸ ਲੈਣ ਦਾ ਵਿਕਲਪ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ। ਹਾਲਾਂਕਿ, Foresight ਵਰਗੇ LLMs ਦੀ ਸਿਖਲਾਈ ਪ੍ਰਕਿਰਿਆ AI ਟੂਲ ਤੋਂ ਇੱਕ ਸਿੰਗਲ ਰਿਕਾਰਡ ਨੂੰ ਹਟਾਉਣਾ ਅਸੰਭਵ ਬਣਾਉਂਦੀ ਹੈ। NHS ਇੰਗਲੈਂਡ ਦੇ ਬੁਲਾਰੇ ਦਾ ਦਾਅਵਾ ਹੈ ਕਿ GDPR ਲਾਗੂ ਨਹੀਂ ਹੁੰਦਾ ਕਿਉਂਕਿ ਮਾਡਲ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਵਰਤਿਆ ਜਾਣ ਵਾਲਾ ਡਾਟਾ ਗੁਮਨਾਮ ਹੈ ਅਤੇ ਨਿੱਜੀ ਡਾਟਾ ਨਹੀਂ ਹੈ।
ਯੂਕੇ ਇਨਫਾਰਮੇਸ਼ਨ ਕਮਿਸ਼ਨਰਜ਼ ਆਫਿਸ ਦੀ ਵੈੱਬਸਾਈਟ ਸਪੱਸ਼ਟ ਕਰਦੀ ਹੈ ਕਿ "ਡੀ-ਆਈਡੈਂਟੀਫਾਈਡ" ਡਾਟਾ ਨੂੰ ਗੁਮਨਾਮ ਡਾਟਾ ਨਾਲ ਬਦਲਵੇਂ ਰੂਪ ਵਿੱਚ ਨਹੀਂ ਵਰਤਿਆ ਜਾਣਾ ਚਾਹੀਦਾ, ਕਿਉਂਕਿ ਯੂਕੇ ਡਾਟਾ ਸੁਰੱਖਿਆ ਕਾਨੂੰਨ ਇਸ ਸ਼ਬਦ ਨੂੰ ਪਰਿਭਾਸ਼ਿਤ ਨਹੀਂ ਕਰਦਾ ਹੈ, ਅਤੇ ਇਸਦੀ ਵਰਤੋਂ ਉਲਝਣ ਪੈਦਾ ਕਰ ਸਕਦੀ ਹੈ।
ਕਾਨੂੰਨੀ ਸਥਿਤੀ COVID-19 ਨਾਲ ਸਬੰਧਤ ਖੋਜ ਲਈ Foresight ਦੀ ਮੌਜੂਦਾ ਵਰਤੋਂ ਦੁਆਰਾ ਹੋਰ ਵੀ ਗੁੰਝਲਦਾਰ ਹੈ, ਜੋ ਸੈਮ ਸਮਿਥ ਆਫ ਮੇਡਕੌਨਫਿਡੈਂਸ਼ੀਅਲ ਦੇ ਅਨੁਸਾਰ, ਮਹਾਂਮਾਰੀ ਦੌਰਾਨ ਲਾਗੂ ਕੀਤੇ ਗਏ ਡਾਟਾ ਸੁਰੱਖਿਆ ਕਾਨੂੰਨਾਂ ਵਿੱਚ ਅਪਵਾਦਾਂ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦੀ ਹੈ। ਸਮਿਥ ਦਾ ਦਾਅਵਾ ਹੈ ਕਿ COVID-ਸਿਰਫ਼ AI ਵਿੱਚ ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ ਏਮਬੇਡਡ ਮਰੀਜ਼ ਡਾਟਾ ਸ਼ਾਮਲ ਹੈ ਜੋ ਲੈਬ ਨਹੀਂ ਛੱਡਣਾ ਚਾਹੀਦਾ ਹੈ, ਅਤੇ ਮਰੀਜ਼ਾਂ ਨੂੰ ਆਪਣੀ ਡਾਟਾ ਵਰਤੋਂ ‘ਤੇ ਨਿਯੰਤਰਣ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ।
ਨੈਤਿਕ ਵਿਚਾਰ
AI ਵਿਕਾਸ ਲਈ ਮੈਡੀਕਲ ਡਾਟਾ ਦੀ ਵਰਤੋਂ ਦੇ ਆਲੇ ਦੁਆਲੇ ਨੈਤਿਕ ਵਿਚਾਰ Foresight ਨੂੰ ਇੱਕ ਅਸਥਿਰ ਸਥਿਤੀ ਵਿੱਚ ਰੱਖਦੇ ਹਨ। ਗ੍ਰੀਨ ਦਾ ਤਰਕ ਹੈ ਕਿ ਨੈਤਿਕਤਾ ਅਤੇ ਮਨੁੱਖੀ ਵਿਚਾਰਾਂ ਨੂੰ AI ਵਿਕਾਸ ਲਈ ਸ਼ੁਰੂਆਤੀ ਬਿੰਦੂ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ, ਨਾ ਕਿ ਬਾਅਦ ਵਿੱਚ ਸੋਚਿਆ ਜਾਣ ਵਾਲਾ ਵਿਚਾਰ।
ਚਿੰਤਾਵਾਂ ਦੀ ਡੂੰਘਾਈ ਨਾਲ ਜਾਂਚ ਕਰਨਾ
NHS ਮੈਡੀਕਲ ਰਿਕਾਰਡਾਂ ਦੀ ਵਰਤੋਂ ਨਾਲ ਸਬੰਧਤ Foresight ਦੀਆਂ ਚਿੰਤਾਵਾਂ ਸਿਰਫ਼ ਡਾਟਾ ਗੁਪਤਤਾ ਤੋਂ ਪਰੇ ਹਨ। ਉਹ ਨਿੱਜੀ ਸਿਹਤ ਜਾਣਕਾਰੀ ਦੀ ਮਾਲਕੀ, ਐਲਗੋਰਿਦਮਿਕ ਪੱਖਪਾਤ ਦੀ ਸੰਭਾਵਨਾ, ਅਤੇ ਡਾਕਟਰ-ਮਰੀਜ਼ ਸਬੰਧਾਂ ‘ਤੇ AI ਦੇ ਲੰਬੇ ਸਮੇਂ ਦੇ ਪ੍ਰਭਾਵ ਬਾਰੇ ਬੁਨਿਆਦੀ ਸਵਾਲਾਂ ਨੂੰ ਛੂੰਹਦੀਆਂ ਹਨ।
ਸਿਹਤ ਡਾਟਾ ਦੀ ਮਾਲਕੀ ਅਤੇ ਨਿਯੰਤਰਣ
ਮੂਲ ਨੈਤਿਕ ਦੁਬਿਧਾਵਾਂ ਵਿੱਚੋਂ ਇੱਕ ਇਹ ਹੈ ਕਿ ਵਿਅਕਤੀਆਂ ਨੂੰ ਆਪਣੇ ਸਿਹਤ ਡਾਟਾ ‘ਤੇ ਕਿਸ ਹੱਦ ਤੱਕ ਨਿਯੰਤਰਣ ਹੋਣਾ ਚਾਹੀਦਾ ਹੈ। ਜਦੋਂ ਕਿ NHS ਨੂੰ ਬਿਨਾਂ ਸ਼ੱਕ ਪ੍ਰਭਾਵੀ ਦੇਖਭਾਲ ਪ੍ਰਦਾਨ ਕਰਨ ਲਈ ਮਰੀਜ਼ ਦੀ ਜਾਣਕਾਰੀ ਤੱਕ ਪਹੁੰਚ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ, AI ਸਿਖਲਾਈ ਲਈ ਇਸ ਡਾਟਾ ਦੀ ਵਰਤੋਂ ਸਵਾਲ ਖੜ੍ਹੇ ਕਰਦੀ ਹੈ ਕਿ ਕੀ ਵਿਅਕਤੀਆਂ ਨੂੰ ਅਜਿਹੀਆਂ ਸੈਕੰਡਰੀ ਵਰਤੋਂ ਲਈ ਸੂਚਿਤ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਅਤੇ ਸਹਿਮਤੀ ਦੇਣ ਲਈ ਸ਼ਕਤੀ ਦਿੱਤੀ ਜਾਂਦੀ ਹੈ।
ਮੌਜੂਦਾ ਆਪਟ-ਆਊਟ ਵਿਧੀ ਨਾਕਾਫ਼ੀ ਹੈ, ਕਿਉਂਕਿ ਉਹ AI ਸਿਖਲਾਈ ਦੀਆਂ ਗੁੰਝਲਾਂ ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਹੱਲ ਨਹੀਂ ਕਰਦੀ ਹੈ। ਇਹ ਤਰਕ ਕਿ ਡੀ-ਆਈਡੈਂਟੀਫਾਈਡ ਡਾਟਾ ਹੁਣ GDPR ਦੇ ਅਧੀਨ ਨਿੱਜੀ ਡਾਟਾ ਨਹੀਂ ਹੈ, ਇੱਕ ਕਾਨੂੰਨੀ ਵਿਆਖਿਆ ਹੈ ਜੋ ਇਸ ਹਕੀਕਤ ਨੂੰ ਨਜ਼ਰਅੰਦਾਜ਼ ਕਰਦੀ ਹੈ ਕਿ ਗੁਮਨਾਮ ਡਾਟਾ ਨੂੰ ਵੀ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਮੁੜ-ਪਛਾਣਿਆ ਜਾ ਸਕਦਾ ਹੈ ਜਾਂ ਵਿਅਕਤੀਆਂ ਬਾਰੇ ਅੰਦਾਜ਼ੇ ਲਗਾਉਣ ਲਈ ਵਰਤਿਆ ਜਾ ਸਕਦਾ ਹੈ।
ਇੱਕ ਹੋਰ ਮਜ਼ਬੂਤ ਪਹੁੰਚ ਵਿੱਚ ਇੱਕ ਸੂਚਿਤ ਸਹਿਮਤੀ ਪ੍ਰਣਾਲੀ ਨੂੰ ਲਾਗੂ ਕਰਨਾ ਸ਼ਾਮਲ ਹੋਵੇਗਾ ਜੋ ਸਪੱਸ਼ਟ ਤੌਰ ‘ਤੇ ਦੱਸਦਾ ਹੈ ਕਿ ਮਰੀਜ਼ ਡਾਟਾ ਦੀ ਵਰਤੋਂ AI ਖੋਜ ਅਤੇ ਵਿਕਾਸ ਲਈ ਕਿਵੇਂ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ। ਇਸਦੇ ਲਈ ਅਜਿਹੀਆਂ ਵਰਤੋਂ ਦੇ ਸੰਭਾਵੀ ਲਾਭਾਂ ਅਤੇ ਜੋਖਮਾਂ ਦੀ ਸਪੱਸ਼ਟ ਅਤੇ ਪਹੁੰਚਯੋਗ ਵਿਆਖਿਆਵਾਂ ਦੀ ਲੋੜ ਹੋਵੇਗੀ, ਨਾਲ ਹੀ ਵਿਅਕਤੀਆਂ ਨੂੰ ਆਪਟ-ਇਨ ਜਾਂ ਆਪਟ-ਆਊਟ ਕਰਨ ਦਾ ਇੱਕ ਸਾਰਥਕ ਮੌਕਾ ਪ੍ਰਦਾਨ ਕਰਨਾ ਹੋਵੇਗਾ।
ਐਲਗੋਰਿਦਮਿਕ ਪੱਖਪਾਤ
ਇੱਕ ਹੋਰ ਮਹੱਤਵਪੂਰਨ ਚਿੰਤਾ ਵੱਡੇ ਡਾਟਾਸੈਟਾਂ ‘ਤੇ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ AI ਮਾਡਲਾਂ ਵਿੱਚ ਐਲਗੋਰਿਦਮਿਕ ਪੱਖਪਾਤ ਦੀ ਸੰਭਾਵਨਾ ਹੈ। ਜੇਕਰ Foresight ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਵਰਤਿਆ ਜਾਣ ਵਾਲਾ ਡਾਟਾ ਮੌਜੂਦਾ ਸਿਹਤ ਅਸਮਾਨਤਾਵਾਂ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ, ਤਾਂ ਮਾਡਲ ਇਹਨਾਂ ਅਸਮਾਨਤਾਵਾਂ ਨੂੰ ਕਾਇਮ ਰੱਖ ਸਕਦਾ ਹੈ ਅਤੇ ਇੱਥੋਂ ਤੱਕ ਕਿ ਵਧਾ ਵੀ ਸਕਦਾ ਹੈ।
ਉਦਾਹਰਨ ਲਈ, ਜੇਕਰ ਡਾਟਾਸੈਟ ਵਿੱਚ ਕੁਝ ਜਨਸੰਖਿਆ ਸਮੂਹਾਂ ਦੀ ਪ੍ਰਤੀਨਿਧਤਾ ਘੱਟ ਹੈ ਜਾਂ ਜੇਕਰ ਉਹਨਾਂ ਦੀਆਂ ਡਾਕਟਰੀ ਸਥਿਤੀਆਂ ਦਾ ਗਲਤ ਨਿਦਾਨ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਜਾਂ ਘੱਟ ਇਲਾਜ ਕੀਤਾ ਜਾਂਦਾ ਹੈ, ਤਾਂ AI ਇਹਨਾਂ ਸਮੂਹਾਂ ਲਈ ਬਿਮਾਰੀ ਜਾਂ ਹਸਪਤਾਲ ਵਿੱਚ ਦਾਖਲੇ ਦੀ ਭਵਿੱਖਬਾਣੀ ਕਰਨ ਵਿੱਚ ਘੱਟ ਸਹੀ ਹੋ ਸਕਦਾ ਹੈ। ਇਸ ਨਾਲ ਸਿਹਤ ਸੰਭਾਲ ਸਰੋਤਾਂ ਤੱਕ ਅਸਮਾਨ ਪਹੁੰਚ ਹੋ ਸਕਦੀ ਹੈ ਅਤੇ ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ ਮੌਜੂਦਾ ਸਿਹਤ ਅਸਮਾਨਤਾਵਾਂ ਨੂੰ ਵਧਾਇਆ ਜਾ ਸਕਦਾ ਹੈ।
ਐਲਗੋਰਿਦਮਿਕ ਪੱਖਪਾਤ ਦੇ ਜੋਖਮ ਨੂੰ ਘੱਟ ਕਰਨ ਲਈ, Foresight ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਲਈ ਵਰਤੇ ਗਏ ਡਾਟਾ ਦਾ ਧਿਆਨ ਨਾਲ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰਨਾ ਅਤੇ ਕਿਸੇ ਵੀ ਸੰਭਾਵੀ ਪੱਖਪਾਤ ਦੀ ਪਛਾਣ ਕਰਨਾ ਅਤੇ ਹੱਲ ਕਰਨਾ ਜ਼ਰੂਰੀ ਹੈ। ਇਸ ਵਿੱਚ ਘੱਟ ਪ੍ਰਤੀਨਿਧਤਾ ਵਾਲੇ ਸਮੂਹਾਂ ਨੂੰ ਓਵਰਸੈਂਪਲ ਕਰਨਾ, ਡਾਟਾ ਵਿੱਚ ਗਲਤੀਆਂ ਨੂੰ ਠੀਕ ਕਰਨਾ, ਅਤੇ ਐਲਗੋਰਿਦਮ ਵਿਕਸਿਤ ਕਰਨਾ ਸ਼ਾਮਲ ਹੋ ਸਕਦਾ ਹੈ ਜੋ ਖਾਸ ਤੌਰ ‘ਤੇ ਨਿਰਪੱਖ ਅਤੇ ਬਰਾਬਰ ਹੋਣ ਲਈ ਤਿਆਰ ਕੀਤੇ ਗਏ ਹਨ।
ਡਾਕਟਰ-ਮਰੀਜ਼ ਸਬੰਧਾਂ ‘ਤੇ ਪ੍ਰਭਾਵ
ਸਿਹਤ ਸੰਭਾਲ ਵਿੱਚ AI ਦੀ ਵੱਧ ਰਹੀ ਵਰਤੋਂ ਵਿੱਚ ਡਾਕਟਰ-ਮਰੀਜ਼ ਦੇ ਰਵਾਇਤੀ ਸਬੰਧਾਂ ਨੂੰ ਡੂੰਘੇ ਢੰਗ ਨਾਲ ਬਦਲਣ ਦੀ ਸੰਭਾਵਨਾ ਹੈ। ਜਦੋਂ ਕਿ AI ਬਿਨਾਂ ਸ਼ੱਕ ਡਾਕਟਰਾਂ ਨੂੰ ਵਧੇਰੇ ਸੂਚਿਤ ਫੈਸਲੇ ਲੈਣ ਵਿੱਚ ਸਹਾਇਤਾ ਕਰ ਸਕਦਾ ਹੈ, ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਮਹੱਤਵਪੂਰਨ ਹੈ ਕਿ ਇਹ ਦੇਖਭਾਲ ਦੇ ਮਨੁੱਖੀ ਤੱਤ ਨੂੰ ਨਾ ਬਦਲੇ।
ਮਰੀਜ਼ਾਂ ਨੂੰ ਭਰੋਸਾ ਮਹਿਸੂਸ ਕਰਨ ਦੀ ਲੋੜ ਹੈ ਕਿ ਉਹਨਾਂ ਦੇ ਡਾਕਟਰ AI ਦੀ ਵਰਤੋਂ ਆਪਣੇ ਕਲੀਨਿਕਲ ਨਿਰਣੇ ਨੂੰ ਵਧਾਉਣ ਲਈ ਇੱਕ ਸਾਧਨ ਵਜੋਂ ਕਰ ਰਹੇ ਹਨ, ਨਾ ਕਿ ਇਸਦੇ ਬਦਲੇ ਵਜੋਂ। ਡਾਕਟਰ-ਮਰੀਜ਼ ਸਬੰਧ ਭਰੋਸੇ, ਹਮਦਰਦੀ ਅਤੇ ਸਾਂਝੇ ਫੈਸਲੇ ਲੈਣ ਦਾ ਸਬੰਧ ਬਣਿਆ ਰਹਿਣਾ ਚਾਹੀਦਾ ਹੈ।
ਡਾਕਟਰ-ਮਰੀਜ਼ ਸਬੰਧਾਂ ਦੀ ਰੱਖਿਆ ਲਈ, ਸਿਹਤ ਸੰਭਾਲ ਵਿੱਚ ਮਨੁੱਖੀ ਗੱਲਬਾਤ ਅਤੇ ਸੰਚਾਰ ਦੀ ਮਹੱਤਤਾ ‘ਤੇ ਜ਼ੋਰ ਦੇਣਾ ਮਹੱਤਵਪੂਰਨ ਹੈ। ਡਾਕਟਰਾਂ ਨੂੰ ਆਪਣੇ ਫੈਸਲੇ ਲੈਣ ਦੀ ਪ੍ਰਕਿਰਿਆ ਵਿੱਚ AI ਦੀ ਭੂਮਿਕਾ ਨੂੰ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਢੰਗ ਨਾਲ ਸੰਚਾਰ ਕਰਨ ਅਤੇ ਮਰੀਜ਼ਾਂ ਨੂੰ ਹੋਣ ਵਾਲੀਆਂ ਕਿਸੇ ਵੀ ਚਿੰਤਾਵਾਂ ਨੂੰ ਹੱਲ ਕਰਨ ਲਈ ਸਿਖਲਾਈ ਦਿੱਤੀ ਜਾਣੀ ਚਾਹੀਦੀ ਹੈ।
ਅੱਗੇ ਵਧਣ ਦਾ ਰਸਤਾ ਲੱਭਣਾ
ਸਿਹਤ ਸੰਭਾਲ ਵਿੱਚ AI ਦੇ ਆਲੇ ਦੁਆਲੇ ਗੁੰਝਲਦਾਰ ਨੈਤਿਕ ਅਤੇ ਕਾਨੂੰਨੀ ਲੈਂਡਸਕੇਪ ਨੂੰ ਨੈਵੀਗੇਟ ਕਰਨ ਲਈ ਇੱਕ ਬਹੁ-ਪੱਖੀ ਪਹੁੰਚ ਦੀ ਲੋੜ ਹੈ।
- ਪਾਰਦਰਸ਼ਤਾ ਅਤੇ ਜਨਤਕ ਸ਼ਮੂਲੀਅਤ: ਖੁੱਲ੍ਹ ਕੇ ਸੰਚਾਰ ਕਰੋ ਕਿ ਮਰੀਜ਼ ਡਾਟਾ ਦੀ ਵਰਤੋਂ ਕਿਵੇਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਅਤੇ ਸਿਹਤ ਸੰਭਾਲ ਵਿੱਚ AI ਦੇ ਨੈਤਿਕ ਪ੍ਰਭਾਵਾਂ ਬਾਰੇ ਵਿਚਾਰਾਂ ਵਿੱਚ ਜਨਤਾ ਨੂੰ ਸ਼ਾਮਲ ਕਰੋ।
- ਡਾਟਾ ਸੁਰੱਖਿਆ ਨੂੰ ਮਜ਼ਬੂਤ ਕਰਨਾ: ਮੁੜ-ਪਛਾਣ ਦੇ ਜੋਖਮ ਨੂੰ ਘੱਟ ਕਰਨ ਅਤੇ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਸਖ਼ਤ ਡਾਟਾ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਨੂੰ ਲਾਗੂ ਕਰੋ ਕਿ ਵਿਅਕਤੀਆਂ ਨੂੰ ਆਪਣੇ ਸਿਹਤ ਡਾਟਾ ‘ਤੇ ਵਧੇਰੇ ਨਿਯੰਤਰਣ ਹੈ।
- ਐਲਗੋਰਿਦਮਿਕ ਪੱਖਪਾਤ ਨੂੰ ਸੰਬੋਧਿਤ ਕਰਨਾ: ਸਾਰਿਆਂ ਲਈ ਸਿਹਤ ਸੰਭਾਲ ਤੱਕ ਬਰਾਬਰ ਪਹੁੰਚ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ AI ਮਾਡਲਾਂ ਵਿੱਚ ਐਲਗੋਰਿਦਮਿਕ ਪੱਖਪਾਤ ਦੀ ਸਰਗਰਮੀ ਨਾਲ ਪਛਾਣ ਕਰੋ ਅਤੇ ਘੱਟ ਕਰੋ।
- ਮਨੁੱਖ-ਕੇਂਦਰਿਤ ਦੇਖਭਾਲ ਨੂੰ ਤਰਜੀਹ ਦੇਣਾ: ਡਾਕਟਰ-ਮਰੀਜ਼ ਸਬੰਧਾਂ ਦੀ ਮਹੱਤਤਾ ‘ਤੇ ਜ਼ੋਰ ਦਿਓ ਅਤੇ ਇਹ ਯਕੀਨੀ ਬਣਾਓ ਕਿ AI ਦੀ ਵਰਤੋਂ ਮਨੁੱਖੀ ਗੱਲਬਾਤ ਨੂੰ ਵਧਾਉਣ ਲਈ ਇੱਕ ਸਾਧਨ ਵਜੋਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ, ਨਾ ਕਿ ਬਦਲਣ ਲਈ।
ਇਹਨਾਂ ਚਿੰਤਾਵਾਂ ਨੂੰ ਹੱਲ ਕਰਕੇ, ਅਸੀਂ ਸਿਹਤ ਸੰਭਾਲ ਵਿੱਚ AI ਦੀ ਪਰਿਵਰਤਨਸ਼ੀਲ ਸੰਭਾਵਨਾ ਦਾ ਉਪਯੋਗ ਕਰ ਸਕਦੇ ਹਾਂ ਜਦੋਂ ਕਿ ਮਰੀਜ਼ ਦੀ ਗੁਪਤਤਾ ਦੀ ਰਾਖੀ ਕਰਦੇ ਹਾਂ, ਬਰਾਬਰੀ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਦੇ ਹਾਂ, ਅਤੇ ਦੇਖਭਾਲ ਦੇ ਮਨੁੱਖੀ ਤੱਤ ਨੂੰ ਸੁਰੱਖਿਅਤ ਰੱਖਦੇ ਹਾਂ। ਸਿਹਤ ਸੰਭਾਲ ਦਾ ਭਵਿੱਖ ਇਹਨਾਂ ਚੁਣੌਤੀਆਂ ਨੂੰ ਜ਼ਿੰਮੇਵਾਰੀ ਅਤੇ ਨੈਤਿਕ ਤੌਰ ‘ਤੇ ਨੈਵੀਗੇਟ ਕਰਨ ਦੀ ਸਾਡੀ ਯੋਗਤਾ ‘ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ। ਸਿਰਫ਼ ਤਦ ਹੀ ਅਸੀਂ ਇਹ ਯਕੀਨੀ ਬਣਾ ਸਕਦੇ ਹਾਂ ਕਿ AI ਸੱਚਮੁੱਚ ਮਰੀਜ਼ਾਂ ਅਤੇ ਸਮਾਜ ਦੇ ਸਮੁੱਚੇ ਤੌਰ ‘ਤੇ ਸਰਵੋਤਮ ਹਿੱਤਾਂ ਦੀ ਸੇਵਾ ਕਰਦਾ ਹੈ।