ਵਾਇਰੋਲੋਜੀ ਵਿੱਚ AI ਦੀ ਵੱਧਦੀ ਮੁਹਾਰਤ: ਬਾਇਓਹਜ਼ਾਰਡ ਚਿੰਤਾਵਾਂ
ਇੱਕ ਨਵੀਂ ਖੋਜ ਤੋਂ ਪਤਾ ਲੱਗਾ ਹੈ ਕਿ ਅਡਵਾਂਸਡ ਆਰਟੀਫਿਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਮਾਡਲ, ਜਿਵੇਂ ਕਿ ChatGPT ਅਤੇ Claude ਵਰਗੇ ਪਲੇਟਫਾਰਮਾਂ ਨੂੰ ਚਲਾਉਣ ਵਾਲੇ ਮਾਡਲ, ਹੁਣ ਵਾਇਰੋਲੋਜੀ ਵੈੱਟ ਲੈਬਾਂ ਵਿੱਚ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਹੱਲ ਕਰਨ ਦੀ ਸਮਰੱਥਾ ਦਿਖਾ ਰਹੇ ਹਨ, ਜੋ ਕਿ ਪੀਐੱਚਡੀ ਰੱਖਣ ਵਾਲੇ ਤਜਰਬੇਕਾਰ ਵਾਇਰੋਲੋਜਿਸਟਾਂ ਤੋਂ ਵੀ ਵੱਧ ਹੈ। ਇਹ ਖੁਲਾਸਾ, ਜਦੋਂ ਕਿ ਬਿਮਾਰੀ ਦੀ ਰੋਕਥਾਮ ਨੂੰ ਅੱਗੇ ਵਧਾਉਣ ਲਈ ਬਹੁਤ ਸੰਭਾਵਨਾਵਾਂ ਰੱਖਦਾ ਹੈ, AI ਦੀ ਘਾਤਕ ਬਾਇਓਹਥਿਆਰਾਂ ਨੂੰ ਬਣਾਉਣ ਲਈ ਸੰਭਾਵੀ ਦੁਰਵਰਤੋਂ ਬਾਰੇ ਮਹੱਤਵਪੂਰਨ ਚਿੰਤਾਵਾਂ ਵੀ ਪੈਦਾ ਕਰਦਾ ਹੈ, ਖਾਸ ਕਰਕੇ ਉਹਨਾਂ ਵਿਅਕਤੀਆਂ ਦੁਆਰਾ ਜਿਹਨਾਂ ਵਿੱਚ ਲੋੜੀਂਦੀ ਮਹਾਰਤ ਅਤੇ ਨੈਤਿਕ ਵਿਚਾਰਾਂ ਦੀ ਘਾਟ ਹੈ।
ਵਾਇਰੋਲੋਜੀ ਵਿੱਚ AI ਦੀ ਦੋਹਰੀ ਤਲਵਾਰ
ਇਹ ਅਧਿਐਨ, ਜੋ ਕਿ ਵਿਸ਼ੇਸ਼ ਤੌਰ ‘ਤੇ TIME ਨਾਲ ਸਾਂਝਾ ਕੀਤਾ ਗਿਆ ਸੀ, Center for AI Safety, MIT’s Media Lab, UFABC (ਇੱਕ ਬ੍ਰਾਜ਼ੀਲੀਅਨ ਯੂਨੀਵਰਸਿਟੀ), ਅਤੇ SecureBio ਦੇ ਖੋਜਕਰਤਾਵਾਂ ਦੀ ਇੱਕ ਸਾਂਝੀ ਕੋਸ਼ਿਸ਼ ਸੀ, ਜੋ ਕਿ ਮਹਾਂਮਾਰੀ ਦੀ ਰੋਕਥਾਮ ਲਈ ਸਮਰਪਿਤ ਇੱਕ ਗੈਰ-ਲਾਭਕਾਰੀ ਸੰਸਥਾ ਹੈ। ਰਿਸਰਚ ਟੀਮ ਨੇ ਪ੍ਰਮੁੱਖ ਵਾਇਰੋਲੋਜਿਸਟਾਂ ਨਾਲ ਸਲਾਹ ਕੀਤੀ ਤਾਂ ਜੋ ਇੱਕ ਬਹੁਤ ਹੀ ਚੁਣੌਤੀਪੂਰਨ ਪ੍ਰੈਕਟੀਕਲ ਟੈਸਟ ਤਿਆਰ ਕੀਤਾ ਜਾ ਸਕੇ ਜੋ ਕਿ ਵਾਇਰੋਲੋਜੀ ਖੋਜ ਵਿੱਚ ਆਮ ਤੌਰ ‘ਤੇ ਵਰਤੀਆਂ ਜਾਣ ਵਾਲੀਆਂ ਗੁੰਝਲਦਾਰ ਲੈਬ ਪ੍ਰਕਿਰਿਆਵਾਂ ਅਤੇ ਪ੍ਰੋਟੋਕੋਲਾਂ ਨੂੰ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਢੰਗ ਨਾਲ ਹੱਲ ਕਰਨ ਲਈ AI ਮਾਡਲਾਂ ਦੀ ਯੋਗਤਾ ਦਾ ਮੁਲਾਂਕਣ ਕਰੇ।
ਟੈਸਟ ਦੇ ਨਤੀਜੇ ਹੈਰਾਨ ਕਰਨ ਵਾਲੇ ਸਨ। ਪੀਐੱਚਡੀ-ਪੱਧਰ ਦੇ ਵਾਇਰੋਲੋਜਿਸਟਾਂ ਨੇ, ਆਪਣੀ ਵਿਆਪਕ ਸਿਖਲਾਈ ਅਤੇ ਤਜਰਬੇ ਦੇ ਬਾਵਜੂਦ, ਆਪਣੇ ਐਲਾਨੇ ਖੇਤਰਾਂ ਵਿੱਚ ਸਿਰਫ਼ 22.1% ਦੀ ਔਸਤ ਸ਼ੁੱਧਤਾ ਸਕੋਰ ਪ੍ਰਾਪਤ ਕੀਤਾ। ਇਸ ਦੇ ਉਲਟ, OpenAI ਦੇ o3 ਮਾਡਲ ਨੇ 43.8% ਦੀ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਸ਼ੁੱਧਤਾ ਪ੍ਰਾਪਤ ਕੀਤੀ, ਜਦੋਂ ਕਿ Google ਦੇ Gemini 2.5 Pro ਨੇ 37.6% ਸਕੋਰ ਕੀਤਾ। ਇਹ ਖੋਜਾਂ ਦਰਸਾਉਂਦੀਆਂ ਹਨ ਕਿ AI ਮਾਡਲ ਤੇਜ਼ੀ ਨਾਲ ਵਾਇਰੋਲੋਜੀ ਲੈਬਾਂ ਵਿੱਚ ਗੁੰਝਲਦਾਰ ਕੰਮ ਕਰਨ ਲਈ ਜ਼ਰੂਰੀ ਗਿਆਨ ਅਤੇ ਹੁਨਰ ਹਾਸਲ ਕਰ ਰਹੇ ਹਨ, ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਕੁਝ ਖੇਤਰਾਂ ਵਿੱਚ ਮਨੁੱਖੀ ਮਾਹਰਾਂ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਪਛਾੜ ਰਹੇ ਹਨ।
ਬਾਇਓਹਥਿਆਰ ਬਣਾਉਣ ਬਾਰੇ ਚਿੰਤਾਵਾਂ
ਸਕਿਓਰਬਾਇਓ ਦੇ ਇੱਕ ਰਿਸਰਚ ਸਾਇੰਟਿਸਟ ਅਤੇ ਅਧਿਐਨ ਦੇ ਸਹਿ-ਲੇਖਕ ਸੇਠ ਡੋਨੋਗ ਨੇ ਇਹਨਾਂ ਖੋਜਾਂ ਦੇ ਪ੍ਰਭਾਵਾਂ ਬਾਰੇ ਆਪਣੀ ਚਿੰਤਾ ਜ਼ਾਹਰ ਕੀਤੀ। ਉਸਨੇ ਨੋਟ ਕੀਤਾ ਕਿ, ਇਤਿਹਾਸ ਵਿੱਚ ਪਹਿਲੀ ਵਾਰ, ਇਹਨਾਂ AI ਮਾਡਲਾਂ ਤੱਕ ਪਹੁੰਚ ਵਾਲਾ ਲਗਭਗ ਕੋਈ ਵੀ ਵਿਅਕਤੀ ਆਪਣੇ ਕੋਲ ਇੱਕ ਗੈਰ-ਨਿਰਣਾਇਕ AI ਵਾਇਰੋਲੋਜੀ ਮਾਹਰ ਰੱਖ ਸਕਦਾ ਹੈ, ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਉਹਨਾਂ ਨੂੰ ਬਾਇਓਹਥਿਆਰ ਬਣਾਉਣ ਲਈ ਲੋੜੀਂਦੀਆਂ ਗੁੰਝਲਦਾਰ ਲੈਬ ਪ੍ਰਕਿਰਿਆਵਾਂ ਦੁਆਰਾ ਮਾਰਗਦਰਸ਼ਨ ਕਰ ਸਕਦਾ ਹੈ।
ਡੋਨੋਗ ਨੇ ਜ਼ੋਰ ਦੇ ਕੇ ਕਿਹਾ ਕਿ ਇਤਿਹਾਸ ਵਿੱਚ ਬਾਇਓਹਥਿਆਰਾਂ ਨੂੰ ਵਿਕਸਤ ਕਰਨ ਲਈ ਕਈ ਕੋਸ਼ਿਸ਼ਾਂ ਕੀਤੀਆਂ ਗਈਆਂ ਹਨ, ਪਰ ਇਹਨਾਂ ਵਿੱਚੋਂ ਬਹੁਤ ਸਾਰੀਆਂ ਕੋਸ਼ਿਸ਼ਾਂ ਜ਼ਰੂਰੀ ਮਹਾਰਤ ਤੱਕ ਪਹੁੰਚ ਦੀ ਘਾਟ ਕਾਰਨ ਅਸਫਲ ਰਹੀਆਂ ਹਨ। ਉਸਨੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਕਿ ਇਸ ਮਹਾਰਤ ਨੂੰ ਪ੍ਰਦਾਨ ਕਰਨ ਦੇ ਸਮਰੱਥ AI ਮਾਡਲਾਂ ਦੀ ਵਿਆਪਕ ਉਪਲਬਧਤਾ ਦੁਰਵਰਤੋਂ ਦੀ ਸੰਭਾਵਨਾ ਅਤੇ ਇਹਨਾਂ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਵੰਡਣ ਵਿੱਚ ਸਾਵਧਾਨੀ ਦੀ ਲੋੜ ਬਾਰੇ ਗੰਭੀਰ ਚਿੰਤਾਵਾਂ ਪੈਦਾ ਕਰਦੀ ਹੈ।
- ਗੈਰ-ਮਾਹਰਾਂ ਦੁਆਰਾ ਦੁਰਵਰਤੋਂ ਦਾ ਖ਼ਤਰਾ।
- ਘਾਤਕ ਬਾਇਓਹਥਿਆਰ ਬਣਾਉਣ ਦੀ ਸੰਭਾਵਨਾ।
- AI ਵਾਇਰੋਲੋਜੀ ਮਹਾਰਤ ਨੂੰ ਵੰਡਣ ਵਿੱਚ ਸਾਵਧਾਨੀ ਦੀ ਲੋੜ।
AI ਲੈਬਾਂ ਚਿੰਤਾਵਾਂ ਦਾ ਜਵਾਬ ਦਿੰਦੀਆਂ ਹਨ
ਅਧਿਐਨ ਦੇ ਨਤੀਜਿਆਂ ਦੇ ਜਵਾਬ ਵਿੱਚ, ਲੇਖਕਾਂ ਨੇ ਨਤੀਜੇ ਪ੍ਰਮੁੱਖ AI ਲੈਬਾਂ ਨਾਲ ਸਾਂਝੇ ਕੀਤੇ, ਜਿਸ ਨਾਲ ਕੁਝ ਨੇ ਕਾਰਵਾਈ ਕੀਤੀ। ਉਦਾਹਰਣ ਵਜੋਂ, xAI ਨੇ ਇੱਕ ਜੋਖਮ ਪ੍ਰਬੰਧਨ ਢਾਂਚਾ ਪ੍ਰਕਾਸ਼ਿਤ ਕੀਤਾ ਜਿਸ ਵਿੱਚ ਇਸਦੇ AI ਮਾਡਲ Grok ਦੇ ਭਵਿੱਖ ਦੇ ਸੰਸਕਰਣਾਂ ਵਿੱਚ ਵਾਇਰੋਲੋਜੀ ਸੁਰੱਖਿਆ ਉਪਾਅ ਲਾਗੂ ਕਰਨ ਦੇ ਆਪਣੇ ਇਰਾਦੇ ਦੀ ਰੂਪਰੇਖਾ ਦਿੱਤੀ ਗਈ। OpenAI ਨੇ TIME ਨੂੰ ਦੱਸਿਆ ਕਿ ਇਸਨੇ ਪਿਛਲੇ ਹਫ਼ਤੇ ਜਾਰੀ ਕੀਤੇ ਆਪਣੇ ਨਵੇਂ ਮਾਡਲਾਂ ਲਈ ‘ਜੈਵਿਕ ਖਤਰਿਆਂ ਲਈ ਨਵੇਂ ਸਿਸਟਮ-ਪੱਧਰੀ ਉਪਾਅ ਤੈਨਾਤ ਕੀਤੇ’ ਹਨ। Anthropic ਨੇ ਹਾਲ ਹੀ ਦੇ ਸਿਸਟਮ ਕਾਰਡਾਂ ਵਿੱਚ ਪੇਪਰ ‘ਤੇ ਮਾਡਲ ਪ੍ਰਦਰਸ਼ਨ ਦੇ ਨਤੀਜੇ ਸ਼ਾਮਲ ਕੀਤੇ, ਪਰ ਕੋਈ ਖਾਸ ਰਾਹਤ ਉਪਾਅ ਨਹੀਂ ਕੀਤੇ। Google ਦੇ Gemini ਨੇ TIME ਨੂੰ ਟਿੱਪਣੀ ਕਰਨ ਤੋਂ ਇਨਕਾਰ ਕਰ ਦਿੱਤਾ।
ਇਹ ਜਵਾਬ AI ਡਿਵੈਲਪਰਾਂ ਵਿੱਚ ਵਾਇਰੋਲੋਜੀ ਵਿੱਚ AI ਦੀਆਂ ਵਧ ਰਹੀਆਂ ਸਮਰੱਥਾਵਾਂ ਨਾਲ ਜੁੜੇ ਸੰਭਾਵੀ ਜੋਖਮਾਂ ਅਤੇ ਦੁਰਵਰਤੋਂ ਨੂੰ ਰੋਕਣ ਲਈ ਸੁਰੱਖਿਆ ਉਪਾਅ ਲਾਗੂ ਕਰਨ ਦੀ ਜ਼ਰੂਰਤ ਬਾਰੇ ਵੱਧ ਰਹੀ ਜਾਗਰੂਕਤਾ ਨੂੰ ਦਰਸਾਉਂਦੇ ਹਨ।
ਬਿਮਾਰੀ ਨਾਲ ਲੜਨ ਵਿੱਚ AI ਦਾ ਵਾਅਦਾ
ਬਾਇਓਹਥਿਆਰ ਬਣਾਉਣ ਬਾਰੇ ਚਿੰਤਾਵਾਂ ਦੇ ਬਾਵਜੂਦ, AI ਵਿੱਚ ਵਾਇਰੋਲੋਜੀ ਖੋਜ ਨੂੰ ਅੱਗੇ ਵਧਾਉਣ ਅਤੇ ਛੂਤ ਦੀਆਂ ਬਿਮਾਰੀਆਂ ਨਾਲ ਲੜਨ ਲਈ ਬਹੁਤ ਵੱਡਾ ਵਾਅਦਾ ਵੀ ਹੈ। AI ਲੀਡਰਾਂ ਨੇ ਲੰਬੇ ਸਮੇਂ ਤੋਂ ਬਾਇਓਮੈਡੀਸਨ ਵਿੱਚ ਕ੍ਰਾਂਤੀ ਲਿਆਉਣ ਅਤੇ ਨਵੇਂ ਇਲਾਜਾਂ ਅਤੇ ਇਲਾਜਾਂ ਦੇ ਵਿਕਾਸ ਨੂੰ ਤੇਜ਼ ਕਰਨ ਲਈ AI ਦੀ ਸੰਭਾਵਨਾ ਨੂੰ ਪਛਾਣਿਆ ਹੈ।
ਉਦਾਹਰਣ ਵਜੋਂ, OpenAI ਦੇ ਸੀਈਓ ਸੈਮ ਆਲਟਮੈਨ ਨੇ ਜਨਵਰੀ ਵਿੱਚ ਵਾਈਟ ਹਾਊਸ ਵਿੱਚ ਕਿਹਾ ਸੀ ਕਿ ‘ਜਿਵੇਂ ਕਿ ਇਹ ਤਕਨਾਲੋਜੀ ਅੱਗੇ ਵਧਦੀ ਹੈ, ਅਸੀਂ ਬਿਮਾਰੀਆਂ ਨੂੰ ਬੇਮਿਸਾਲ ਦਰ ਨਾਲ ਠੀਕ ਹੁੰਦੇ ਦੇਖਾਂਗੇ’। ਇਸ ਆਸ਼ਾਵਾਦ ਨੂੰ ਇਸ ਖੇਤਰ ਵਿੱਚ ਤਰੱਕੀ ਦੇ ਉਤਸ਼ਾਹਜਨਕ ਸੰਕੇਤਾਂ ਦੁਆਰਾ ਸਮਰਥਨ ਮਿਲਦਾ ਹੈ। ਇਸ ਸਾਲ ਦੇ ਸ਼ੁਰੂ ਵਿੱਚ, ਫਲੋਰੀਡਾ ਯੂਨੀਵਰਸਿਟੀ ਦੇ Emerging Pathogens Institute ਦੇ ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਇੱਕ ਐਲਗੋਰਿਦਮ ਵਿਕਸਤ ਕੀਤਾ ਜੋ ਇਹ ਭਵਿੱਖਬਾਣੀ ਕਰਨ ਦੇ ਸਮਰੱਥ ਹੈ ਕਿ ਕਿਹੜਾ ਕੋਰੋਨਾਵਾਇਰਸ ਵੇਰੀਐਂਟ ਸਭ ਤੋਂ ਤੇਜ਼ੀ ਨਾਲ ਫੈਲ ਸਕਦਾ ਹੈ।
ਵਾਇਰੋਲੋਜੀ ਲੈਬ ਦਾ ਕੰਮ ਕਰਨ ਦੀ AI ਦੀ ਯੋਗਤਾ ਦਾ ਮੁਲਾਂਕਣ ਕਰਨਾ
ਜਦੋਂ ਕਿ AI ਨੇ ਵਾਇਰੋਲੋਜੀ ਨਾਲ ਸਬੰਧਤ ਅਕਾਦਮਿਕ-ਸ਼ੈਲੀ ਦੀ ਜਾਣਕਾਰੀ ਪ੍ਰਦਾਨ ਕਰਨ ਵਿੱਚ ਵਾਅਦਾ ਦਿਖਾਇਆ ਹੈ, ਪਰ ਅਸਲ ਵਿੱਚ ਵਾਇਰੋਲੋਜੀ ਲੈਬ ਦਾ ਕੰਮ ਕਰਨ ਦੀ ਇਸਦੀ ਯੋਗਤਾ ਨੂੰ ਸਮਝਣ ਵਿੱਚ ਇੱਕ ਵੱਡਾ ਪਾੜਾ ਬਣਿਆ ਹੋਇਆ ਹੈ। ਇਸ ਪਾੜੇ ਨੂੰ ਦੂਰ ਕਰਨ ਲਈ, ਡੋਨੋਗ ਅਤੇ ਉਸਦੇ ਸਹਿਯੋਗੀਆਂ ਨੇ ਖਾਸ ਤੌਰ ‘ਤੇ ਮੁਸ਼ਕਲ, ਗੈਰ-ਗੂਗਲ-ਯੋਗ ਪ੍ਰਸ਼ਨਾਂ ਲਈ ਇੱਕ ਟੈਸਟ ਤਿਆਰ ਕੀਤਾ ਜਿਨ੍ਹਾਂ ਲਈ ਵਿਹਾਰਕ ਸਹਾਇਤਾ ਅਤੇ ਅਜਿਹੀਆਂ ਤਸਵੀਰਾਂ ਅਤੇ ਜਾਣਕਾਰੀ ਦੀ ਵਿਆਖਿਆ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ ਜੋ ਆਮ ਤੌਰ ‘ਤੇ ਅਕਾਦਮਿਕ ਪੇਪਰਾਂ ਵਿੱਚ ਨਹੀਂ ਮਿਲਦੀਆਂ।
ਪ੍ਰਸ਼ਨਾਂ ਨੂੰ ਉਹਨਾਂ ਚੁਣੌਤੀਆਂ ਦੀ ਨਕਲ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਸੀ ਜੋ ਵਾਇਰੋਲੋਜਿਸਟ ਆਪਣੀ ਰੋਜ਼ਾਨਾ ਦੇ ਕੰਮ ਵਿੱਚ ਦਰਪੇਸ਼ ਕਰਦੇ ਹਨ, ਜਿਵੇਂ ਕਿ ਖਾਸ ਸੈੱਲ ਕਿਸਮਾਂ ਅਤੇ ਸਥਿਤੀਆਂ ਵਿੱਚ ਵਾਇਰਸਾਂ ਨੂੰ ਕਲਚਰ ਕਰਦੇ ਸਮੇਂ ਆਉਣ ਵਾਲੀਆਂ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਹੱਲ ਕਰਨਾ।
ਫਾਰਮੈਟ ਇਸ ਤਰ੍ਹਾਂ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਸੀ:
- ਇੱਕ ਖਾਸ ਦ੍ਰਿਸ਼ ਪੇਸ਼ ਕਰਨਾ।
- ਪ੍ਰਯੋਗ ਸੈੱਟਅੱਪ ਬਾਰੇ ਵੇਰਵੇ ਪ੍ਰਦਾਨ ਕਰਨਾ।
- AI ਨੂੰ ਸਭ ਤੋਂ ਸੰਭਾਵਿਤ ਸਮੱਸਿਆ ਦੀ ਪਛਾਣ ਕਰਨ ਲਈ ਕਹਿਣਾ।
AI ਨੇ ਵਿਹਾਰਕ ਟੈਸਟਾਂ ‘ਤੇ ਵਾਇਰੋਲੋਜਿਸਟਾਂ ਨੂੰ ਪਛਾੜ ਦਿੱਤਾ
ਟੈਸਟ ਦੇ ਨਤੀਜਿਆਂ ਨੇ ਖੁਲਾਸਾ ਕੀਤਾ ਕਿ ਲਗਭਗ ਹਰੇਕ AI ਮਾਡਲ ਨੇ ਪੀਐੱਚਡੀ-ਪੱਧਰ ਦੇ ਵਾਇਰੋਲੋਜਿਸਟਾਂ ਨੂੰ ਪਛਾੜ ਦਿੱਤਾ, ਇੱਥੋਂ ਤੱਕ ਕਿ ਉਹਨਾਂ ਦੇ ਆਪਣੇ ਮਹਾਰਤ ਦੇ ਖੇਤਰਾਂ ਵਿੱਚ ਵੀ। ਇਸ ਖੋਜ ਤੋਂ ਪਤਾ ਲੱਗਦਾ ਹੈ ਕਿ AI ਮਾਡਲ ਨਾ ਸਿਰਫ਼ ਵਾਇਰੋਲੋਜੀਕਲ ਗਿਆਨ ਦੀ ਵਿਸ਼ਾਲ ਮਾਤਰਾ ਤੱਕ ਪਹੁੰਚ ਕਰਨ ਅਤੇ ਪ੍ਰੋਸੈਸ ਕਰਨ ਦੇ ਸਮਰੱਥ ਹਨ, ਸਗੋਂ ਇਸ ਗਿਆਨ ਨੂੰ ਲੈਬ ਵਿੱਚ ਵਿਹਾਰਕ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਹੱਲ ਕਰਨ ਲਈ ਵੀ ਲਾਗੂ ਕਰ ਸਕਦੇ ਹਨ।
ਖੋਜਕਰਤਾਵਾਂ ਨੇ ਇਹ ਵੀ ਦੇਖਿਆ ਕਿ ਮਾਡਲਾਂ ਨੇ ਸਮੇਂ ਦੇ ਨਾਲ ਮਹੱਤਵਪੂਰਨ ਸੁਧਾਰ ਦਿਖਾਇਆ, ਇਹ ਦਰਸਾਉਂਦਾ ਹੈ ਕਿ ਉਹ ਲਗਾਤਾਰ ਸਿੱਖ ਰਹੇ ਹਨ ਅਤੇ ਵਾਇਰੋਲੋਜੀ ਵਿੱਚ ਆਪਣੇ ਹੁਨਰ ਨੂੰ ਨਿਖਾਰ ਰਹੇ ਹਨ। ਉਦਾਹਰਣ ਵਜੋਂ, Anthropic ਦਾ Claude 3.5 Sonnet ਜੂਨ 2024 ਮਾਡਲ ਤੋਂ ਅਕਤੂਬਰ 2024 ਮਾਡਲ ਤੱਕ 26.9% ਤੋਂ 33.6% ਸ਼ੁੱਧਤਾ ਤੱਕ ਵਧ ਗਿਆ। ਅਤੇ ਫਰਵਰੀ ਵਿੱਚ OpenAI ਦੇ GPT 4.5 ਦੇ ਇੱਕ ਪ੍ਰੀਵਿਊ ਨੇ GPT-4o ਨੂੰ ਲਗਭਗ 10 ਪ੍ਰਤੀਸ਼ਤ ਅੰਕਾਂ ਨਾਲ ਪਛਾੜ ਦਿੱਤਾ।
AI ਦੀਆਂ ਵਧ ਰਹੀਆਂ ਸਮਰੱਥਾਵਾਂ ਦੇ ਪ੍ਰਭਾਵ
Center for AI Safety ਦੇ ਡਾਇਰੈਕਟਰ ਡੈਨ ਹੈਂਡਰਿਕਸ ਨੇ ਜ਼ੋਰ ਦੇ ਕੇ ਕਿਹਾ ਕਿ AI ਮਾਡਲ ਹੁਣ ਵਿਹਾਰਕ ਗਿਆਨ ਦੀ ਇੱਕ ਚਿੰਤਾਜਨਕ ਮਾਤਰਾ ਹਾਸਲ ਕਰ ਰਹੇ ਹਨ। ਜੇਕਰ AI ਮਾਡਲ ਸੱਚਮੁੱਚ ਵੈੱਟ ਲੈਬ ਸੈਟਿੰਗਾਂ ਵਿੱਚ ਉਨੇ ਹੀ ਸਮਰੱਥ ਹਨ ਜਿੰਨਾ ਕਿ ਅਧਿਐਨ ਦਰਸਾਉਂਦਾ ਹੈ, ਤਾਂ ਇਸਦੇ ਦੂਰਗਾਮੀ ਪ੍ਰਭਾਵ ਹਨ।
ਇੱਕ ਪਾਸੇ, AI ਵਾਇਰਸਾਂ ਨਾਲ ਲੜਨ, ਦਵਾਈ ਅਤੇ ਵੈਕਸੀਨ ਵਿਕਾਸ ਦੀਆਂ ਸਮਾਂ-ਸੀਮਾਵਾਂ ਨੂੰ ਤੇਜ਼ ਕਰਨ, ਅਤੇ ਕਲੀਨਿਕਲ ਟਰਾਇਲਾਂ ਅਤੇ ਬਿਮਾਰੀ ਖੋਜ ਵਿੱਚ ਸੁਧਾਰ ਕਰਨ ਵਿੱਚ ਆਪਣੇ ਨਾਜ਼ੁਕ ਕੰਮ ਵਿੱਚ ਤਜਰਬੇਕਾਰ ਵਾਇਰੋਲੋਜਿਸਟਾਂ ਨੂੰ ਅਨਮੋਲ ਸਹਾਇਤਾ ਪ੍ਰਦਾਨ ਕਰ ਸਕਦਾ ਹੈ। ਜੌਨ ਹੌਪਕਿੰਸ ਸੈਂਟਰ ਫਾਰ ਹੈਲਥ ਸਿਕਿਓਰਿਟੀ ਦੇ ਡਾਇਰੈਕਟਰ ਟੌਮ ਇੰਗਲਸਬੀ ਨੇ ਨੋਟ ਕੀਤਾ ਕਿ AI ਦੁਨੀਆ ਦੇ ਵੱਖ-ਵੱਖ ਹਿੱਸਿਆਂ ਵਿੱਚ ਵਿਗਿਆਨੀਆਂ ਨੂੰ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰ ਸਕਦਾ ਹੈ, ਖਾਸ ਕਰਕੇ ਉਹਨਾਂ ਲੋਕਾਂ ਨੂੰ ਜਿਨ੍ਹਾਂ ਕੋਲ ਵਿਸ਼ੇਸ਼ ਹੁਨਰ ਜਾਂ ਸਰੋਤਾਂ ਦੀ ਘਾਟ ਹੈ, ਉਹਨਾਂ ਦੀਆਂ ਜ਼ਮੀਨਾਂ ਵਿੱਚ ਹੋਣ ਵਾਲੀਆਂ ਬਿਮਾਰੀਆਂ ‘ਤੇ ਕੀਮਤੀ ਰੋਜ਼ਾਨਾ ਕੰਮ ਕਰਨ ਲਈ।
- ਦਵਾਈ ਅਤੇ ਵੈਕਸੀਨ ਵਿਕਾਸ ਨੂੰ ਤੇਜ਼ ਕਰਨਾ।
- ਕਲੀਨਿਕਲ ਟਰਾਇਲਾਂ ਅਤੇ ਬਿਮਾਰੀ ਖੋਜ ਵਿੱਚ ਸੁਧਾਰ ਕਰਨਾ।
- ਸਰੋਤ-ਸੀਮਤ ਸੈਟਿੰਗਾਂ ਵਿੱਚ ਵਿਗਿਆਨੀਆਂ ਨੂੰ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰਨਾ।
ਬੁਰੇ-ਵਿਸ਼ਵਾਸ ਵਾਲੇ ਕਲਾਕਾਰਾਂ ਦੁਆਰਾ ਦੁਰਵਰਤੋਂ ਦਾ ਖ਼ਤਰਾ
ਦੂਜੇ ਪਾਸੇ, ਅਧਿਐਨ ਬੁਰੇ-ਵਿਸ਼ਵਾਸ ਵਾਲੇ ਕਲਾਕਾਰਾਂ ਦੁਆਰਾ AI ਦੀ ਸੰਭਾਵੀ ਦੁਰਵਰਤੋਂ ਬਾਰੇ ਗੰਭੀਰ ਚਿੰਤਾਵਾਂ ਪੈਦਾ ਕਰਦਾ ਹੈ ਜੋ ਇਹਨਾਂ ਮਾਡਲਾਂ ਦੀ ਵਰਤੋਂ ਵਾਇਰਸਾਂ ਨੂੰ ਬਣਾਉਣ ਦੇ ਤਰੀਕੇ ਸਿੱਖਣ ਲਈ ਕਰ ਸਕਦੇ ਹਨ ਬਿਨਾਂ ਆਮ ਸਿਖਲਾਈ ਅਤੇ ਬਾਇਓਸੇਫਟੀ ਲੈਵਲ 4 (BSL-4) ਪ੍ਰਯੋਗਸ਼ਾਲਾ ਵਿੱਚ ਦਾਖਲ ਹੋਣ ਲਈ ਲੋੜੀਂਦੀ ਪਹੁੰਚ ਦੇ, ਜੋ ਕਿ ਸਭ ਤੋਂ ਖਤਰਨਾਕ ਅਤੇ ਅਨੋਖੇ ਛੂਤਕਾਰੀ ਏਜੰਟਾਂ ਨੂੰ ਸੰਭਾਲਦਾ ਹੈ। ਇੰਗਲਸਬੀ ਨੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਕਿ AI ਵਾਇਰਸਾਂ ਨੂੰ ਪ੍ਰਬੰਧਿਤ ਅਤੇ ਹੇਰਾਫੇਰੀ ਕਰਨ ਲਈ ਘੱਟ ਸਿਖਲਾਈ ਵਾਲੇ ਹੋਰ ਲੋਕਾਂ ਨੂੰ ਸ਼ਕਤੀ ਪ੍ਰਦਾਨ ਕਰ ਸਕਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਤਬਾਹਕੁਨ ਨਤੀਜੇ ਨਿਕਲ ਸਕਦੇ ਹਨ।
ਹੈਂਡਰਿਕਸ ਨੇ AI ਕੰਪਨੀਆਂ ਨੂੰ ਇਸ ਕਿਸਮ ਦੀ ਵਰਤੋਂ ਨੂੰ ਰੋਕਣ ਲਈ ਗਾਰਡਰੇਲ ਲਾਗੂ ਕਰਨ ਦੀ ਅਪੀਲ ਕੀਤੀ, ਇਹ ਸੁਝਾਅ ਦਿੰਦੇ ਹੋਏ ਕਿ ਅਜਿਹਾ ਕਰਨ ਵਿੱਚ ਅਸਫਲ ਰਹਿਣਾ ਛੇ ਮਹੀਨਿਆਂ ਦੇ ਅੰਦਰ ਲਾਪਰਵਾਹੀ ਹੋਵੇਗੀ। ਉਸਨੇ ਪ੍ਰਸਤਾਵ ਦਿੱਤਾ ਕਿ ਇੱਕ ਹੱਲ ਇਹ ਹੈ ਕਿ ਇਹਨਾਂ ਮਾਡਲਾਂ ਨੂੰ ਗੇਟਡ ਬਣਾਇਆ ਜਾਵੇ, ਤਾਂ ਜੋ ਸਿਰਫ਼ ਭਰੋਸੇਯੋਗ ਤੀਜੀ ਧਿਰ ਜਿਨ੍ਹਾਂ ਕੋਲ ਘਾਤਕ ਵਾਇਰਸਾਂ ਨੂੰ ਹੇਰਾਫੇਰੀ ਕਰਨ ਦੇ ਜਾਇਜ਼ ਕਾਰਨ ਹਨ, ਜਿਵੇਂ ਕਿ MIT ਬਾਇਓਲੋਜੀ ਵਿਭਾਗ ਦੇ ਖੋਜਕਰਤਾਵਾਂ, ਉਹਨਾਂ ਦੇ ਅਣਫਿਲਟਰ ਕੀਤੇ ਸੰਸਕਰਣਾਂ ਤੱਕ ਪਹੁੰਚ ਹੋਵੇ।
- ਗਾਰਡਰੇਲ ਲਾਗੂ ਕਰਕੇ ਦੁਰਵਰਤੋਂ ਨੂੰ ਰੋਕਣਾ।
- ਭਰੋਸੇਯੋਗ ਧਿਰਾਂ ਤੱਕ ਪਹੁੰਚ ਨੂੰ ਸੀਮਤ ਕਰਨ ਲਈ ਮਾਡਲਾਂ ਨੂੰ ਗੇਟ ਕਰਨਾ।
- ਇਹ ਯਕੀਨੀ ਬਣਾਉਣਾ ਕਿ ਸਿਰਫ਼ ਅਧਿਕਾਰਤ ਖੋਜਕਰਤਾਵਾਂ ਕੋਲ ਸੰਵੇਦਨਸ਼ੀਲ ਸਮਰੱਥਾਵਾਂ ਤੱਕ ਪਹੁੰਚ ਹੈ।
ਉਦਯੋਗਿਕ ਸਵੈ-ਨਿਯਮ ਦੀ ਸੰਭਾਵਨਾ
ਹੈਂਡਰਿਕਸ ਦਾ ਮੰਨਣਾ ਹੈ ਕਿ AI ਕੰਪਨੀਆਂ ਲਈ ਸਵੈ-ਨਿਯਮਿਤ ਕਰਨਾ ਅਤੇ ਇਸ ਕਿਸਮ ਦੇ ਸੁਰੱਖਿਆ ਉਪਾਅ ਲਾਗੂ ਕਰਨਾ ਤਕਨੀਕੀ ਤੌਰ ‘ਤੇ ਸੰਭਵ ਹੈ। ਹਾਲਾਂਕਿ, ਉਸਨੇ ਇਸ ਬਾਰੇ ਚਿੰਤਾ ਜ਼ਾਹਰ ਕੀਤੀ ਕਿ ਕੀ ਕੁਝ ਕੰਪਨੀਆਂ ਆਪਣੇ ਪੈਰ ਖਿੱਚਣਗੀਆਂ ਜਾਂ ਸਿਰਫ਼ ਜ਼ਰੂਰੀ ਕਦਮ ਚੁੱਕਣ ਵਿੱਚ ਅਸਫਲ ਰਹਿਣਗੀਆਂ।
xAI, ਐਲੋਨ ਮਸਕ ਦੀ AI ਲੈਬ ਨੇ ਪੇਪਰ ਨੂੰ ਸਵੀਕਾਰ ਕੀਤਾ ਅਤੇ ਸੰਕੇਤ ਦਿੱਤਾ ਕਿ ਕੰਪਨੀ ਵਾਇਰੋਲੋਜੀ ਪ੍ਰਸ਼ਨਾਂ ਦੇ ਜਵਾਬ ਦੇਣ ਦੇ ਆਲੇ ਦੁਆਲੇ ਕੁਝ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਦੀ ਵਰਤੋਂ ‘ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ’ ਕਰੇਗੀ, ਜਿਸ ਵਿੱਚ ਹਾਨੀਕਾਰਕ ਬੇਨਤੀਆਂ ਨੂੰ ਅਸਵੀਕਾਰ ਕਰਨ ਲਈ ਗ੍ਰੋਕ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣਾ ਅਤੇ ਇਨਪੁਟ ਅਤੇ ਆਉਟਪੁੱਟ ਫਿਲਟਰ ਲਾਗੂ ਕਰਨਾ ਸ਼ਾਮਲ ਹੈ।
OpenAI ਨੇ ਦੱਸਿਆ ਕਿ ਇਸਦੇ ਨਵੀਨਤਮ ਮਾਡਲ, o3 ਅਤੇ o4-mini, ਜੈਵਿਕ-ਜੋਖਮ ਨਾਲ ਸਬੰਧਤ ਸੁਰੱਖਿਆ ਉਪਾਵਾਂ ਦੀ ਇੱਕ ਲੜੀ ਨਾਲ ਤੈਨਾਤ ਕੀਤੇ ਗਏ ਸਨ, ਜਿਸ ਵਿੱਚ ਹਾਨੀਕਾਰਕ ਆਉਟਪੁੱਟ ਨੂੰ ਰੋਕਣਾ ਸ਼ਾਮਲ ਹੈ। ਕੰਪਨੀ ਨੇ ਇਹ ਵੀ ਦੱਸਿਆ ਕਿ ਇਸਨੇ ਇੱਕ ਹਜ਼ਾਰ ਘੰਟੇ ਦਾ ਰੈੱਡ-ਟੀਮਿੰਗ ਮੁਹਿੰਮ ਚਲਾਈ ਜਿਸ ਵਿੱਚ 98.7% ਅਸੁਰੱਖਿਅਤ ਬਾਇਓ-ਸਬੰਧਤ ਗੱਲਬਾਤ ਨੂੰ ਸਫਲਤਾਪੂਰਵਕ ਫਲੈਗ ਕੀਤਾ ਗਿਆ ਅਤੇ ਰੋਕਿਆ ਗਿਆ।
- ਹਾਨੀਕਾਰਕ ਬੇਨਤੀਆਂ ਨੂੰ ਅਸਵੀਕਾਰ ਕਰਨ ਲਈ AI ਮਾਡਲਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣਾ।
- ਖਤਰਨਾਕ ਸਮੱਗਰੀ ਨੂੰ ਰੋਕਣ ਲਈ ਇਨਪੁਟ ਅਤੇ ਆਉਟਪੁੱਟ ਫਿਲਟਰ ਲਾਗੂ ਕਰਨਾ।
- ਜੋਖਮਾਂ ਦੀ ਪਛਾਣ ਕਰਨ ਅਤੇ ਘਟਾਉਣ ਲਈ ਰੈੱਡ-ਟੀਮਿੰਗ ਅਭਿਆਸਾਂ ਦਾ ਆਯੋਜਨ ਕਰਨਾ।
ਨੀਤੀ ਅਤੇ ਨਿਯਮ ਦੀ ਲੋੜ
ਇਹਨਾਂ ਯਤਨਾਂ ਦੇ ਬਾਵਜੂਦ, ਇੰਗਲਸਬੀ ਦਾ ਤਰਕ ਹੈ ਕਿ ਉਦਯੋਗਿਕ ਸਵੈ-ਨਿਯਮ ਕਾਫ਼ੀ ਨਹੀਂ ਹੈ ਅਤੇ ਕਾਨੂੰਨਸਾਜ਼ਾਂ ਅਤੇ ਰਾਜਨੀਤਿਕ ਨੇਤਾਵਾਂ ਨੂੰ AI ਦੇ ਜੈਵਿਕ ਜੋਖਮਾਂ ਨੂੰ ਨਿਯਮਿਤ ਕਰਨ ਲਈ ਇੱਕ ਨੀਤੀ ਪਹੁੰਚ ਵਿਕਸਤ ਕਰਨ ਦੀ ਮੰਗ ਕਰਦਾ ਹੈ। ਉਸਨੇ ਜ਼ੋਰ ਦੇ ਕੇ ਕਿਹਾ ਕਿ ਜਦੋਂ ਕਿ ਕੁਝ ਕੰਪਨੀਆਂ ਇਹਨਾਂ ਜੋਖਮਾਂ ਨੂੰ ਹੱਲ ਕਰਨ ਲਈ ਸਮਾਂ ਅਤੇ ਪੈਸਾ ਲਗਾ ਰਹੀਆਂ ਹਨ, ਦੂਜੀਆਂ ਨਹੀਂ ਕਰ ਸਕਦੀਆਂ, ਜਿਸ ਨਾਲ ਇੱਕ ਅਜਿਹੀ ਸਥਿਤੀ ਪੈਦਾ ਹੋ ਸਕਦੀ ਹੈ ਜਿੱਥੇ ਲੋਕਾਂ ਨੂੰ ਇਸ ਗੱਲ ਦੀ ਕੋਈ ਸਮਝ ਨਹੀਂ ਹੈ ਕਿ ਕੀ ਹੋ ਰਿਹਾ ਹੈ।
ਇੰਗਲਸਬੀ ਨੇ ਪ੍ਰਸਤਾਵ ਦਿੱਤਾ ਕਿ ਇੱਕ LLM ਦੇ ਨਵੇਂ ਸੰਸਕਰਣ ਨੂੰ ਜਾਰੀ ਕਰਨ ਤੋਂ ਪਹਿਲਾਂ, ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਮੁਲਾਂਕਣ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ ਇਹ ਮਹਾਂਮਾਰੀ-ਪੱਧਰ ਦੇ ਨਤੀਜੇ ਨਹੀਂ ਪੈਦਾ ਕਰੇਗਾ। ਇਸ ਲਈ ਵਾਇਰੋਲੋਜੀ ਵਿੱਚ AI ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਨਿਯਮਿਤ ਕਰਨ ਲਈ ਇੱਕ ਵਧੇਰੇ ਵਿਆਪਕ ਅਤੇ ਤਾਲਮੇਲ ਵਾਲੀ ਪਹੁੰਚ ਦੀ ਲੋੜ ਹੋਵੇਗੀ, ਜਿਸ ਵਿੱਚ ਉਦਯੋਗ ਅਤੇ ਸਰਕਾਰੀ ਹਿੱਸੇਦਾਰ ਦੋਵੇਂ ਸ਼ਾਮਲ ਹੋਣਗੇ।
- ਮਹਾਂਮਾਰੀ-ਪੱਧਰ ਦੇ ਨਤੀਜਿਆਂ ਨੂੰ ਰੋਕਣ ਲਈ ਰਿਲੀਜ਼ ਤੋਂ ਪਹਿਲਾਂ LLMs ਦਾ ਮੁਲਾਂਕਣ ਕਰਨਾ।
- AI ਦੇ ਜੈਵਿਕ ਜੋਖਮਾਂ ਨੂੰ ਨਿਯਮਿਤ ਕਰਨ ਲਈ ਇੱਕ ਵਿਆਪਕ ਨੀਤੀ ਪਹੁੰਚ ਵਿਕਸਤ ਕਰਨਾ।
- ਨਿਯਮਿਤ ਪ੍ਰਕਿਰਿਆ ਵਿੱਚ ਉਦਯੋਗ ਅਤੇ ਸਰਕਾਰੀ ਹਿੱਸੇਦਾਰ ਦੋਵਾਂ ਨੂੰ ਸ਼ਾਮਲ ਕਰਨਾ।
ਨਵੀਨਤਾ ਅਤੇ ਸੁਰੱਖਿਆ ਵਿਚਕਾਰ ਸੰਤੁਲਨ ਬਣਾਉਣਾ
ਚੁਣੌਤੀ AI ਵਿੱਚ ਨਵੀਨਤਾ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨ ਅਤੇ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਦੇ ਵਿਚਕਾਰ ਇੱਕ ਸੰਤੁਲਨ ਬਣਾਉਣ ਵਿੱਚ ਹੈ ਕਿ ਇਹਨਾਂ ਸ਼ਕਤੀਸ਼ਾਲੀ ਤਕਨਾਲੋਜੀਆਂ ਦੀ ਵਰਤੋਂ ਘਾਤਕ ਬਾਇਓਹਥਿਆਰ ਬਣਾਉਣ ਲਈ ਨਾ ਕੀਤੀ ਜਾਵੇ। ਇਸ ਲਈ ਇੱਕ ਬਹੁ-ਪੱਖੀ ਪਹੁੰਚ ਦੀ ਲੋੜ ਹੈ ਜਿਸ ਵਿੱਚ ਸ਼ਾਮਲ ਹਨ:
- ਦੁਰਵਰਤੋਂ ਨੂੰ ਰੋਕਣ ਲਈ ਮਜ਼ਬੂਤ ਸੁਰੱਖਿਆ ਉਪਾਅ ਵਿਕਸਤ ਕਰਨਾ।
- ਸੰਵੇਦਨਸ਼ੀਲ ਸਮਰੱਥਾਵਾਂ ਤੱਕ ਪਹੁੰਚ ਨੂੰ ਭਰੋਸੇਯੋਗ ਧਿਰਾਂ ਤੱਕ ਸੀਮਤ ਕਰਨਾ।
- ਵਾਇਰੋਲੋਜੀ ਵਿੱਚ AI ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਨਿਯਮਿਤ ਕਰਨਾ।
- ਜ਼ਿੰਮੇਵਾਰ ਨਵੀਨਤਾ ਅਤੇ ਨੈਤਿਕ ਵਿਚਾਰਾਂ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਨਾ।
ਇਹ ਕਦਮ ਚੁੱਕ ਕੇ, ਅਸੀਂ ਵਾਇਰੋਲੋਜੀ ਖੋਜ ਨੂੰ ਅੱਗੇ ਵਧਾਉਣ ਅਤੇ ਛੂਤ ਦੀਆਂ ਬਿਮਾਰੀਆਂ ਨਾਲ ਲੜਨ ਲਈ AI ਦੀ ਬਹੁਤ ਸੰਭਾਵਨਾ ਦਾ ਉਪਯੋਗ ਕਰ ਸਕਦੇ ਹਾਂ ਜਦੋਂ ਕਿ ਇਸਦੀ ਦੁਰਵਰਤੋਂ ਨਾਲ ਜੁੜੇ ਜੋਖਮਾਂ ਨੂੰ ਘਟਾ ਸਕਦੇ ਹਾਂ। ਵਾਇਰੋਲੋਜੀ ਵਿੱਚ AI ਦਾ ਭਵਿੱਖ ਇਸ ਗੁੰਝਲਦਾਰ ਲੈਂਡਸਕੇਪ ਨੂੰ ਜ਼ਿੰਮੇਵਾਰੀ ਨਾਲ ਨੈਵੀਗੇਟ ਕਰਨ ਅਤੇ ਇਹ ਯਕੀਨੀ ਬਣਾਉਣ ਦੀ ਸਾਡੀ ਯੋਗਤਾ ‘ਤੇ ਨਿਰਭਰ ਕਰਦਾ ਹੈ ਕਿ ਇਹਨਾਂ ਸ਼ਕਤੀਸ਼ਾਲੀ ਤਕਨਾਲੋਜੀਆਂ ਦੀ ਵਰਤੋਂ ਮਨੁੱਖਤਾ ਦੇ ਲਾਭ ਲਈ ਕੀਤੀ ਜਾਵੇ।