प्रयोगशाळेतील AI च्या धोक्यांमुळे बायोहेझार्ड चिंता

तंत्रज्ञानाचा विकास झपाट्याने होत आहे आणि कृत्रिम बुद्धिमत्ता (Artificial Intelligence - AI) म्हणजेच एआयने अनेक क्षेत्रांमध्ये क्रांती घडवून आणली आहे. विशेषतः विषाणूशास्त्र (Virology) प्रयोगशाळांमध्ये एआयची वाढती क्षमता एकीकडे मोठी आशा निर्माण करत आहे, तर दुसरीकडे गंभीर धोके उभे करत आहे. एका अभ्यासात असे दिसून आले आहे की, ChatGPT आणि Claude सारखे प्रगत एआय मॉडेल विषाणूशास्त्रज्ञांपेक्षाही अधिक प्रभावीपणे समस्या सोडवू शकतात. यामुळे रोग प्रतिबंधनात मोठी मदत मिळू शकते, परंतु त्याच वेळी घातक जैविक शस्त्रे (Bioweapons) बनवण्यासाठी एआयचा गैरवापर होण्याची शक्यता वाढली आहे. विशेषतः ज्या लोकांकडे आवश्यक कौशल्ये आणि नैतिक विचार नाहीत, त्यांच्या हाती हे तंत्रज्ञान लागल्यास त्याचे गंभीर परिणाम होऊ शकतात.

विषाणूशास्त्रामध्ये एआयची दुधारी तलवार

‘टाइम’ (TIME) मासिकाने दिलेल्या माहितीनुसार, सेंटर फॉर एआय सेफ्टी (Center for AI Safety), एमआयटी मीडिया लॅब (MIT’s Media Lab), यूएफएबीसी (UFABC - ब्राझीलमधील विद्यापीठ), आणि सिक्युअर बायो (SecureBio) यांसारख्या संस्थांनी एकत्रितपणे हा अभ्यास केला आहे. सिक्युअर बायो ही एक गैर-लाभकारी संस्था आहे, जी महामारी प्रतिबंधनासाठी काम करते. या संशोधन टीमने आघाडीच्या विषाणूशास्त्रज्ञांशी सल्लामसलत करून एक अत्यंत कठीण चाचणी तयार केली. या चाचणीमध्ये एआय मॉडेलची प्रयोगशाळेतील क्लिष्ट प्रक्रिया आणि प्रोटोकॉल प्रभावीपणे हाताळण्याची क्षमता तपासण्यात आली. विषाणूशास्त्र संशोधनात या प्रक्रिया आणि प्रोटोकॉलचा वापर सामान्यपणे केला जातो.

या चाचणीचे निकाल धक्कादायक होते. पीएचडी स्तरावरील विषाणूशास्त्रज्ञांनी त्यांच्या संबंधित क्षेत्रात सरासरी २२.१% अचूकता मिळवली, तर OpenAI च्या o3 मॉडेलने ४३.८% आणि Google च्या Gemini 2.5 Pro ने ३७.६% अचूकता दर्शवली. या निष्कर्षांवरून असे दिसून येते की, एआय मॉडेल वेगाने ज्ञान आणि कौशल्ये आत्मसात करत आहेत. त्यामुळे विषाणूशास्त्र प्रयोगशाळांमध्ये मानवी तज्ञांपेक्षाही अधिक चांगली कामगिरी करण्याची क्षमता त्यांच्यात आहे.

जैविक शस्त्रे बनवण्याची चिंता

सिक्युअर बायोचे रिसर्च सायंटिस्ट आणि या अभ्यासाचे सह-लेखक सेठ डोनोघे (Seth Donoughe) यांनी या निष्कर्षांवर चिंता व्यक्त केली आहे. ते म्हणाले की, इतिहासात पहिल्यांदाच, एआय मॉडेल सहज उपलब्ध झाल्यामुळे कोणालाही जैविक शस्त्रे बनवण्यासाठी मार्गदर्शन मिळू शकते.

डोनोघे यांनी पुढे सांगितले की, जैविक शस्त्रे बनवण्याचे अनेक प्रयत्न यापूर्वी झाले आहेत, परंतु आवश्यक कौशल्याच्या अभावामुळे ते अयशस्वी झाले. आता एआय मॉडेलच्या माध्यमातून हे कौशल्य कोणालाही मिळू शकतं, त्यामुळे गैरवापर होण्याची शक्यता वाढली आहे. त्यामुळे या तंत्रज्ञानाचे वितरण किती सुरक्षित आहे, यावर विचार करणे आवश्यक आहे.

  • गैर-तज्ञांकडून गैरवापर होण्याची शक्यता.
  • घातक जैविक शस्त्रे निर्माण होण्याची शक्यता.
  • एआय विषाणूशास्त्र कौशल्याचे वितरण करताना घ्यावयाची काळजी.

एआय प्रयोगशाळांची प्रतिक्रिया

या अभ्यासाच्या निष्कर्षांनंतर, संशोधकांनी प्रमुख एआय प्रयोगशाळांशी संपर्क साधला, ज्यामुळे काही प्रयोगशाळांनी तातडीने कार्यवाही केली. उदाहरणार्थ, xAI ने एक धोका व्यवस्थापन आराखडा (Risk Management Framework) प्रकाशित केला आहे, ज्यामध्ये त्यांनी भविष्यात त्यांच्या Grok या एआय मॉडेलमध्ये विषाणूशास्त्र सुरक्षा उपाय लागू करण्याची घोषणा केली आहे. OpenAI ने ‘टाइम’ला सांगितले की, त्यांनी त्यांच्या नवीन मॉडेलमध्ये जैविक धोक्यांसाठी ‘नवीन सिस्टम-लेव्हल मिटिगेशन’ (New system-level mitigations) तयार केले आहेत. Anthropic ने त्यांच्या मॉडेलच्या कामगिरीचे निष्कर्ष त्यांच्या सिस्टम कार्डमध्ये (System cards) समाविष्ट केले, परंतु त्यांनी विशिष्ट सुरक्षा उपायांचा प्रस्ताव दिला नाही. Google च्या Gemini ने यावर कोणतीही प्रतिक्रिया दिली नाही.

या प्रतिक्रियांवरून हे स्पष्ट होते की, एआय विकासकांना विषाणूशास्त्रामध्ये एआयच्या वाढत्या क्षमतेमुळे होणाऱ्या धोक्यांची जाणीव झाली आहे आणि गैरवापर टाळण्यासाठी सुरक्षा उपाययोजना करणे आवश्यक आहे.

रोगांचा मुकाबला करण्यासाठी एआयची आशा

जैविक शस्त्रे बनवण्याच्या धोक्यांव्यतिरिक्त, एआय विषाणूशास्त्र संशोधन आणि संसर्गजन्य रोगांचा मुकाबला करण्यासाठी खूप उपयुक्त ठरू शकते. एआयमध्ये बायोमेडिसिनमध्ये (Biomedicine) क्रांती घडवण्याची आणि नवीन उपचार व उपाय शोधण्याची क्षमता आहे, हे एआय क्षेत्रातील तज्ञांनी अनेकदा सांगितले आहे.

OpenAI चे सीईओ सॅम Altman (Sam Altman) यांनी जानेवारीमध्ये व्हाईट हाऊसमध्ये (White House) बोलताना म्हटले होते की, ‘जसजसे हे तंत्रज्ञान प्रगती करेल, तसतसे आपल्याला अभूतपूर्व वेगाने रोग बरे झालेले दिसतील.’ या विधानाला दुजोरा देणारी अनेक उदाहरणे आहेत. या वर्षाच्या सुरुवातीला, फ्लोरिडा विद्यापीठातील इमर्जिंग पॅथोजेन्स संस्थेतील (Emerging Pathogens Institute) संशोधकांनी एक अल्गोरिदम (Algorithm) विकसित केला आहे, जो कोरोना विषाणूचा कोणता प्रकार (Variant) सर्वात वेगाने पसरू शकतो, याचा अंदाज लावू शकतो.

विषाणूशास्त्र प्रयोगशाळेतील कामांसाठी एआयची क्षमता

एआय शैक्षणिक माहिती देण्यासाठी उपयुक्त आहे, हे सिद्ध झाले आहे, परंतु विषाणूशास्त्र प्रयोगशाळेतील प्रत्यक्ष काम करण्याची क्षमता तपासणे बाकी होते. ही गरज ओळखून, डोनोघे आणि त्यांच्या सहकाऱ्यांनी एक विशेष चाचणी तयार केली. या चाचणीमध्ये अशा कठीण प्रश्नांचा समावेश करण्यात आला, ज्यांची उत्तरे Google वर सहज उपलब्ध नाहीत आणि ज्यासाठी प्रयोगशाळेतील प्रत्यक्ष मदतीची आवश्यकता असते. तसेच, शैक्षणिक पेपर्समध्ये (Academic papers) न आढळणाऱ्या प्रतिमा (Images) आणि माहितीचे विश्लेषण करण्याची गरज असते.

हे प्रश्न विषाणूशास्त्रज्ञांना त्यांच्या दैनंदिन कामात येणाऱ्या अडचणी लक्षात घेऊन तयार करण्यात आले होते. उदाहरणार्थ, विशिष्ट पेशी प्रकार (Cell types) आणि परिस्थितीत विषाणूंची वाढ (Culturing viruses) करत असताना येणाऱ्या समस्यांचे निराकरण करणे.

प्रश्नांचे स्वरूप खालीलप्रमाणे होते:

  • एक विशिष्ट परिस्थिती सादर करणे.
  • प्रयोगाच्या सेटअपबद्दल (Experiment setup) तपशील देणे.
  • एआयला सर्वात संभावित समस्या ओळखण्यास सांगणे.

प्रत्यक्ष चाचणीत एआयने विषाणूशास्त्रज्ञांना मागे टाकले

चाचणीच्या निकालांमध्ये असे दिसून आले की, जवळपास प्रत्येक एआय मॉडेलने पीएचडी स्तरावरील विषाणूशास्त्रज्ञांपेक्षा चांगली कामगिरी केली, विशेषतः त्यांच्या स्वतःच्या क्षेत्रात. यावरून हे स्पष्ट होते की, एआय मॉडेलमध्ये केवळ विषाणूशास्त्राचे विस्तृत ज्ञान उपलब्ध आहे असे नाही, तर ते ज्ञान प्रयोगशाळेतील प्रत्यक्ष समस्या सोडवण्यासाठी वापरण्याची क्षमताही आहे.

संशोधकांनी असेही पाहिले की, कालांतराने मॉडेलमध्ये लक्षणीय सुधारणा झाली आहे, म्हणजेच ते सतत शिकत आहेत आणि विषाणूशास्त्रामध्ये त्यांची कौशल्ये सुधारत आहेत. उदाहरणार्थ, Anthropic च्या Claude 3.5 Sonnet मॉडेलची अचूकता जून २०२४ मध्ये २६.९% होती, जी ऑक्टोबर २०२४ मध्ये ३३.६% पर्यंत वाढली. तसेच, OpenAI च्या GPT 4.5 च्या फेब्रुवारीमधील पूर्वावलोकनाने (Preview) GPT-4o पेक्षा जवळपास १० टक्क्यांनी अधिक चांगली कामगिरी केली.

एआयच्या वाढत्या क्षमतेचे परिणाम

सेंटर फॉर एआय सेफ्टीचे संचालक डॅन हेंड्रिक्स (Dan Hendrycks) यांनी यावर जोर दिला की, एआय मॉडेल आता व्यावहारिक ज्ञान (Practical knowledge) मिळवत आहेत, जे चिंताजनक आहे. जर एआय मॉडेल प्रयोगशाळेतील कामांमध्ये सक्षम असतील, तर त्याचे दूरगामी परिणाम होऊ शकतात.

एकीकडे, एआय अनुभवी विषाणूशास्त्रज्ञांना विषाणूंशी लढण्यासाठी, औषधे आणि लस (Vaccine) विकासाला गती देण्यासाठी आणि वैद्यकीय चाचण्या (Clinical trials) व रोग शोधण्याची प्रक्रिया सुधारण्यासाठी मदत करू शकते. जॉन्स हॉपकिन्स सेंटर फॉर हेल्थ सिक्युरिटीचे (Johns Hopkins Center for Health Security) संचालक टॉम Inglesby (Tom Inglesby) यांनी नमूद केले की, एआयमुळे जगाच्या विविध भागांतील शास्त्रज्ञांना त्यांच्या देशांमध्ये उद्भवणाऱ्या रोगांवर काम करण्यासाठी मदत मिळू शकते, विशेषतः ज्यांच्याकडेspecialized skills (विशेष कौशल्ये) किंवा संसाधने (Resources) नाहीत.

  • औषधे आणि लस विकासाला गती देणे.
  • वैद्यकीय चाचण्या आणि रोग शोधण्याची प्रक्रिया सुधारणे.
  • संसाधनांची कमतरता असलेल्या ठिकाणी शास्त्रज्ञांना सक्षम करणे.

वाईट हेतू असलेल्या लोकांकडून गैरवापर होण्याचा धोका

दुसरीकडे, या अभ्यासात एआयच्या संभाव्य गैरवापरांबद्दल गंभीर चिंता व्यक्त केली आहे. वाईट हेतू असलेले लोक या मॉडेलचा वापर करून विषाणू कसे तयार करायचे, हे शिकू शकतात. यासाठी त्यांना Biosafety Level 4 (BSL-4) प्रयोगशाळेत (Laboratory) प्रवेश करण्याची गरज भासणार नाही. BSL-4 प्रयोगशाळा सर्वात धोकादायक आणि अज्ञात संसर्गजन्य घटकांशी (Infectious agents) संबंधित काम करते. Inglesby यांनी इशारा दिला की, एआयमुळे कमी प्रशिक्षण घेतलेल्या लोकांनाही विषाणूंचे व्यवस्थापन (Manage) आणि manipulation (हेरफेर) करण्याची क्षमता मिळू शकते, ज्यामुळे विनाशकारी (Catastrophic) परिणाम होऊ शकतात.

हेंड्रिक्स यांनी एआय कंपन्यांना या प्रकारचा गैरवापर रोखण्यासाठी सुरक्षा उपाय (Guardrails) लागू करण्याची विनंती केली आहे. त्यांनी असेही म्हटले आहे की, असे करण्यात अयशस्वी झाल्यास ते अत्यंत धोकादायक ठरू शकते. त्यांच्या मते, एक उपाय म्हणजे या मॉडेलला ‘गेटेड’ (Gated) बनवणे, जेणेकरून ज्यांच्याकडे प्राणघातक विषाणू हाताळण्याची कायदेशीर कारणे आहेत, जसे की एमआयटी जीवशास्त्र विभागातील (MIT biology department) संशोधक, त्यांनाच या मॉडेलच्या unfiltered आवृत्त्यांमध्ये प्रवेश मिळेल.

  • गैरवापर टाळण्यासाठी सुरक्षा उपाय (Guardrails) लागू करणे.
  • विश्वसनीय लोकांपर्यंतच प्रवेश मर्यादित ठेवण्यासाठी मॉडेलला ‘गेटेड’ बनवणे.
  • केवळ अधिकृत संशोधकांनाच संवेदनशील क्षमतांमध्ये प्रवेश सुनिश्चित करणे.

उद्योगाद्वारे स्वयं-नियಂತ್ರणाची व्यवहार्यता

हेंड्रिक्स यांचा असा विश्वास आहे की, एआय कंपन्यांसाठी स्वयं-नियंत्रण (Self-regulate) करणे आणि अशा प्रकारचे सुरक्षा उपाय लागू करणे तांत्रिकदृष्ट्या शक्य आहे. मात्र, काही कंपन्या टाळाटाळ करतील किंवा आवश्यक उपाययोजना करण्यात अयशस्वी ठरतील, अशी चिंता त्यांनी व्यक्त केली आहे.

xAI, Elon Musk (इलॉन मस्क) यांच्या एआय प्रयोगशाळेने या पेपरची दखल घेतली आहे आणि विषाणूशास्त्र प्रश्नांची उत्तरे देताना काही सुरक्षा उपायांचा वापर करण्याची तयारी दर्शवली आहे. यामध्ये Grok ला हानिकारक विनंत्या नाकारण्याचे प्रशिक्षण देणे आणि इनपुट (Input) व आउटपुट फिल्टर (Output filter) लागू करणे इत्यादींचा समावेश आहे.

OpenAI ने सांगितले की, त्यांची नवीन मॉडेल, o3 आणि o4-mini मध्ये जैविक-धोक्यांशी संबंधित अनेक सुरक्षा उपाय (Safeguards) समाविष्ट केले आहेत, ज्यात हानिकारक आउटपुट अवरोधित करणे इत्यादींचा समावेश आहे. कंपनीने हेही सांगितले की, त्यांनी एक हजार तासांचे ‘रेड-टीमिंग’ (Red-teaming) अभियान चालवले, ज्यामध्ये ९८.७% असुरक्षित जैविक संभाषणांना (Bio-related conversations) यशस्वीरित्या flag (अवरोधित) केले गेले.

  • हानिकारक विनंत्या नाकारण्यासाठी एआय मॉडेलला प्रशिक्षण देणे.
  • धोकादायक सामग्री अवरोधित करण्यासाठी इनपुट आणि आउटपुट फिल्टर लागू करणे.
  • धोके ओळखण्यासाठी आणि कमी करण्यासाठी रेड-टीमिंग व्यायाम आयोजित करणे.

धोरण आणि नियमनाची गरज

या प्रयत्नांनंतरही, Inglesby असा युक्तिवाद करतात की, केवळ उद्योगाद्वारे स्वयं-नियंत्रण पुरेसे नाही. यासाठी त्यांनी lawmakers (कायदेकर्ते) आणि राजकीय नेत्यांना एआयच्या जैविक धोक्यांचे नियमन (Regulate) करण्यासाठी धोरणात्मक दृष्टिकोन (Policy approach) विकसित करण्याची मागणी केली आहे. त्यांनी यावर जोर दिला की, काही कंपन्या या धोक्यांचे निराकरण करण्यासाठी वेळ आणि पैसा गुंतवत आहेत, तर काही कंपन्या असे करत नाहीत. त्यामुळे लोकांना नेमके काय चालले आहे, हे कळायला मार्ग नाही.

Inglesby यांनी असा प्रस्ताव ठेवला आहे की, LLM ची (Large language model) नवीन आवृत्ती (Version) जारी करण्यापूर्वी, त्याचे मूल्यांकन (Evaluate) केले जावे, जेणेकरून ते महामारी-स्तरावरील (Pandemic-level) परिणाम निर्माण करणार नाही. यासाठी विषाणूशास्त्रामध्ये एआयच्या क्षमतेचे नियमन करण्यासाठी अधिक व्यापक आणि समन्वित दृष्टिकोन आवश्यक आहे, ज्यात उद्योग आणि सरकार या दोघांचाही सहभाग असावा.

  • महामारी-स्तरावरील परिणाम टाळण्यासाठी LLM जारी करण्यापूर्वी त्याचे मूल्यांकन करणे.
  • एआयच्या जैविक धोक्यांचे नियमन करण्यासाठी एक व्यापक धोरणात्मक दृष्टिकोन विकसित करणे.
  • नियामक प्रक्रियेत उद्योग आणि सरकार या दोघांचाही सहभाग असणे.

नवोपक्रम आणि सुरक्षितता यांच्यात समतोल राखणे

एआयमधील नवोपक्रमाला (Innovation) प्रोत्साहन देणे आणि या शक्तिशाली तंत्रज्ञानाचा वापर जैविक शस्त्रे (Bioweapons) बनवण्यासाठी होणार नाही, याची खात्री करणे हे मोठे आव्हान आहे. यासाठी अनेक पैलूंचा समावेश असलेला दृष्टिकोन आवश्यक आहे:

  • गैरवापर टाळण्यासाठी मजबूत सुरक्षा उपायांचा विकास करणे.
  • संवेदनशील क्षमतांमध्ये प्रवेश केवळ विश्वसनीय लोकांपर्यंत मर्यादित ठेवणे.
  • विषाणूशास्त्रामध्ये एआयच्या क्षमतेचे नियमन करणे.
  • जबाबदार नवोपक्रम आणि नैतिक विचारांना प्रोत्साहन देणे.

अशी पाऊले उचलून, आपण विषाणूशास्त्र संशोधनाला पुढे नेण्यासाठी आणि संसर्गजन्य रोगांचा मुकाबला करण्यासाठी एआयच्या प्रचंड क्षमतेचा उपयोग करू शकतो. त्याच वेळी, गैरवापराशी संबंधित धोके कमी करू शकतो. विषाणूशास्त्रामध्ये एआयचे भविष्य आपल्या या गुंतागुंतीच्या परिस्थितीत जबाबदारीने मार्ग काढण्यावर अवलंबून आहे आणि हे तंत्रज्ञान मानवतेच्या फायद्यासाठी वापरले जाईल, याची खात्री करणे आवश्यक आहे.