वायरोलॉजी में AI की बढ़ती प्रवीणता: जैव-खतरे की चिंता
एक अभूतपूर्व अध्ययन से पता चलता है कि उन्नत आर्टिफिशियल इंटेलिजेंस (AI) मॉडल, जिनमें चैटजीपीटी और क्लाउड जैसे प्लेटफ़ॉर्म को शक्ति प्रदान करने वाले मॉडल भी शामिल हैं, अब वायरोलॉजी वेट लैब्स में समस्या-समाधान क्षमताएं प्रदर्शित कर रहे हैं जो पीएचडी धारक अनुभवी वायरोलॉजिस्टों से भी आगे निकल जाती हैं। यह रहस्योद्घाटन, जबकि रोग की रोकथाम को आगे बढ़ाने के लिए अपार क्षमता रखता है, AI के संभावित दुरुपयोग के बारे में भी महत्वपूर्ण चिंताएं बढ़ाता है ताकि घातक बायोवेपन बनाए जा सकें, खासकर उन व्यक्तियों द्वारा जिनके पास आवश्यक विशेषज्ञता और नैतिक विचार नहीं हैं।
वायरोलॉजी में AI की दोधारी तलवार
यह अध्ययन, जिसे विशेष रूप से TIME के साथ साझा किया गया था, सेंटर फॉर AI सेफ्टी, MIT के मीडिया लैब, UFABC (एक ब्राज़ीलियाई विश्वविद्यालय), और सिक्योरबायो, महामारी की रोकथाम के लिए समर्पित एक गैर-लाभकारी संगठन के शोधकर्ताओं के सहयोगात्मक प्रयास से किया गया था। अनुसंधान दल ने प्रमुख वायरोलॉजिस्टों के साथ परामर्श किया ताकि एक अत्यधिक चुनौतीपूर्ण व्यावहारिक परीक्षण तैयार किया जा सके जो जटिल लैब प्रक्रियाओं और प्रोटोकॉल को प्रभावी ढंग से हल करने के लिए AI मॉडल की क्षमता का आकलन करता है जो आमतौर पर वायरोलॉजी अनुसंधान में उपयोग किए जाते हैं।
परीक्षण के परिणाम चौंकाने वाले थे। पीएचडी-स्तरीय वायरोलॉजिस्टों ने, अपने व्यापक प्रशिक्षण और अनुभव के बावजूद, अपने घोषित विशेषज्ञता के क्षेत्रों में केवल 22.1% का औसत सटीकता स्कोर प्राप्त किया। इसके विपरीत, OpenAI के o3 मॉडल ने 43.8% की प्रभावशाली सटीकता हासिल की, जबकि Google के Gemini 2.5 Pro ने 37.6% स्कोर किया। ये निष्कर्ष बताते हैं कि AI मॉडल तेजी से वायरोलॉजी लैब्स में जटिल कार्यों को करने के लिए आवश्यक ज्ञान और कौशल हासिल कर रहे हैं, संभावित रूप से कुछ क्षेत्रों में मानव विशेषज्ञों की क्षमताओं को भी पार कर रहे हैं।
बायोवेपन निर्माण के बारे में चिंताएं
सिक्योरबायो के एक शोध वैज्ञानिक और अध्ययन के सह-लेखक सेठ डोनोगी ने इन निष्कर्षों के निहितार्थों के बारे में अपनी चिंता व्यक्त की। उन्होंने कहा कि, इतिहास में पहली बार, इन AI मॉडल तक पहुंच रखने वाला लगभग कोई भी व्यक्ति अपने निपटान में एक गैर-न्यायिक AI वायरोलॉजी विशेषज्ञ रख सकता है, जो संभावित रूप से उन्हें बायोवेपन बनाने के लिए आवश्यक जटिल लैब प्रक्रियाओं के माध्यम से मार्गदर्शन कर सकता है।
डोनोगी ने जोर देकर कहा कि पूरे इतिहास में, बायोवेपन विकसित करने के कई प्रयास किए गए हैं, लेकिन आवश्यक विशेषज्ञता तक पहुंच की कमी के कारण इनमें से कई प्रयास विफल रहे हैं। उन्होंने चेतावनी दी कि इस विशेषज्ञता को प्रदान करने में सक्षम AI मॉडल की व्यापक उपलब्धता दुरुपयोग की संभावना और इन क्षमताओं को वितरित करने में सावधानी बरतने की आवश्यकता के बारे में गंभीर चिंताएं बढ़ाती है।
- गैर-विशेषज्ञों द्वारा दुरुपयोग का जोखिम।
- घातक बायोवेपन बनाने की क्षमता।
- AI वायरोलॉजी विशेषज्ञता के वितरण में सावधानी बरतने की आवश्यकता।
AI लैब्स की प्रतिक्रिया
अध्ययन के निष्कर्षों के जवाब में, लेखकों ने परिणामों को प्रमुख AI लैब्स के साथ साझा किया, जिससे कुछ को कार्रवाई करने के लिए प्रेरित किया गया। उदाहरण के लिए, xAI ने एक जोखिम प्रबंधन ढांचा प्रकाशित किया जिसमें भविष्य के संस्करणों में वायरोलॉजी सुरक्षा उपायों को लागू करने के अपने इरादे को रेखांकित किया गया। OpenAI ने TIME को बताया कि उसने पिछले सप्ताह जारी किए गए अपने नए मॉडल के लिए “जैविक जोखिमों के लिए नए सिस्टम-स्तरीय शमन” तैनात किए हैं। Anthropic ने हाल के सिस्टम कार्ड में पेपर पर मॉडल प्रदर्शन परिणामों को शामिल किया, लेकिन विशिष्ट शमन उपायों का प्रस्ताव नहीं किया। Google के Gemini ने TIME पर टिप्पणी करने से इनकार कर दिया।
ये प्रतिक्रियाएं वायरोलॉजी में AI की बढ़ती क्षमताओं से जुड़े संभावित जोखिमों और दुरुपयोग को रोकने के लिए सुरक्षा उपायों को लागू करने की आवश्यकता के बारे में AI डेवलपर्स के बीच बढ़ती जागरूकता का संकेत देती हैं।
बीमारी से लड़ने में AI का वादा
बायोवेपन निर्माण के बारे में चिंताओं के बावजूद, AI वायरोलॉजी अनुसंधान को आगे बढ़ाने और संक्रामक रोगों का मुकाबला करने के लिए भी अपार वादा रखता है। AI नेताओं ने लंबे समय से बायोमेडिसिन में क्रांति लाने और नए उपचारों और इलाज के विकास को गति देने के लिए AI की क्षमता को पहचाना है।
उदाहरण के लिए, OpenAI के सीईओ सैम अल्टमैन ने जनवरी में व्हाइट हाउस में कहा कि “जैसे-जैसे यह तकनीक आगे बढ़ेगी, हम अभूतपूर्व दर से बीमारियों को ठीक होते देखेंगे।” इस आशावाद को इस क्षेत्र में प्रगति के उत्साहजनक संकेतों का समर्थन प्राप्त है। इस साल की शुरुआत में, फ्लोरिडा विश्वविद्यालय के इमर्जिंग पैथोजेन्स इंस्टीट्यूट के शोधकर्ताओं ने एक एल्गोरिदम विकसित किया जो यह अनुमान लगाने में सक्षम है कि कौन सा कोरोनावायरस वैरिएंट सबसे तेजी से फैल सकता है।
वायरोलॉजी लैब का काम करने के लिए AI की क्षमता का मूल्यांकन
जबकि AI ने वायरोलॉजी से संबंधित अकादमिक-शैली की जानकारी प्रदान करने में वादा दिखाया है, लेकिन वास्तव में वायरोलॉजी लैब का काम करने की क्षमता को समझने में एक बड़ी खाई बनी हुई है। इस अंतर को दूर करने के लिए, डोनोगी और उनके सहयोगियों ने विशेष रूप से कठिन, गैर-गूगल-सक्षम प्रश्नों के लिए एक परीक्षण तैयार किया, जिसके लिए व्यावहारिक सहायता और छवियों और जानकारी की व्याख्या की आवश्यकता होती है जो आमतौर पर अकादमिक पत्रों में नहीं पाई जाती हैं।
प्रश्नों को वायरोलॉजिस्टों द्वारा अपने दैनिक कार्यों में सामना की जाने वाली चुनौतियों की नकल करने के लिए डिज़ाइन किया गया था, जैसे कि विशिष्ट कोशिका प्रकारों और स्थितियों में वायरस को संस्कृति करते समय आने वाली समस्याओं का निवारण करना।
प्रारूप इस प्रकार डिजाइन किया गया था:
- एक विशिष्ट परिदृश्य प्रस्तुत करना।
- प्रयोग सेटअप के बारे में विवरण प्रदान करना।
- AI को सबसे संभावित समस्या की पहचान करने के लिए कहना।
AI ने व्यावहारिक परीक्षणों पर वायरोलॉजिस्टों को पछाड़ा
परीक्षण के परिणामों से पता चला कि लगभग हर AI मॉडल ने पीएचडी-स्तरीय वायरोलॉजिस्टों को भी पछाड़ दिया, यहां तक कि उनके अपने विशेषज्ञता के क्षेत्रों में भी। यह निष्कर्ष बताता है कि AI मॉडल न केवल वायरोलॉजिकल ज्ञान की विशाल मात्रा तक पहुंचने और संसाधित करने में सक्षम हैं, बल्कि इस ज्ञान को लैब में व्यावहारिक समस्याओं को हल करने के लिए भी लागू करने में सक्षम हैं।
शोधकर्ताओं ने यह भी देखा कि मॉडल ने समय के साथ महत्वपूर्ण सुधार दिखाया, यह दर्शाता है कि वे लगातार वायरोलॉजी में अपने कौशल को सीख रहे हैं और परिष्कृत कर रहे हैं। उदाहरण के लिए, Anthropic के Claude 3.5 Sonnet ने जून 2024 मॉडल से अक्टूबर 2024 मॉडल तक 26.9% से 33.6% सटीकता तक छलांग लगाई। और OpenAI के GPT 4.5 के फरवरी में एक पूर्वावलोकन ने GPT-4o को लगभग 10 प्रतिशत अंकों से बेहतर प्रदर्शन किया।
AI की बढ़ती क्षमताओं के निहितार्थ
सेंटर फॉर AI सेफ्टी के निदेशक डैन हेंड्रिक्स ने जोर देकर कहा कि AI मॉडल अब व्यावहारिक ज्ञान की चिंताजनक मात्रा हासिल कर रहे हैं। यदि AI मॉडल वास्तव में वेट लैब सेटिंग्स में उतने ही सक्षम हैं जितना कि अध्ययन बताता है, तो इसके निहितार्थ दूरगामी हैं।
एक तरफ, AI वायरस से लड़ने, दवा और वैक्सीन विकास की समय-सीमा को तेज करने और नैदानिक परीक्षणों और रोग का पता लगाने में सुधार करने के लिए अनुभवी वायरोलॉजिस्टों को उनके महत्वपूर्ण काम में अमूल्य सहायता प्रदान कर सकता है। जॉन्स हॉपकिन्स सेंटर फॉर हेल्थ सिक्योरिटी के निदेशक टॉम इंगल्सबी ने कहा कि AI दुनिया के विभिन्न हिस्सों में वैज्ञानिकों को सशक्त बना सकता है, खासकर उन लोगों को जिनके पास विशेष कौशल या संसाधनों की कमी है, ताकि वे अपने देशों में होने वाली बीमारियों पर मूल्यवान दिन-प्रतिदिन का काम कर सकें।
- दवा और वैक्सीन विकास में तेजी लाना।
- नैदानिक परीक्षणों और रोग का पता लगाने में सुधार करना।
- संसाधन-सीमित सेटिंग्स में वैज्ञानिकों को सशक्त बनाना।
बुरे इरादे वाले अभिनेताओं द्वारा दुरुपयोग का जोखिम
दूसरी ओर, अध्ययन बुरे इरादे वाले अभिनेताओं द्वारा AI के संभावित दुरुपयोग के बारे में गंभीर चिंताएं बढ़ाता है जो इन मॉडलों का उपयोग वायरस बनाने का तरीका सीखने के लिए कर सकते हैं बिना किसी Biosafety Level 4 (BSL-4) प्रयोगशाला में प्रवेश करने के लिए आवश्यक विशिष्ट प्रशिक्षण और पहुंच की आवश्यकता के, जो सबसे खतरनाक और विदेशी संक्रामक एजेंटों को संभालती है। इंगल्सबी ने चेतावनी दी कि AI अधिक लोगों को कम प्रशिक्षण के साथ वायरस का प्रबंधन और हेरफेर करने के लिए सशक्त बना सकता है, जिससे संभावित रूप से विनाशकारी परिणाम हो सकते हैं।
हेंड्रिक्स ने AI कंपनियों से इस प्रकार के उपयोग को रोकने के लिए गार्डरेल लागू करने का आग्रह किया, यह सुझाव देते हुए कि छह महीने के भीतर ऐसा करने में विफल रहना लापरवाह होगा। उन्होंने प्रस्तावित किया कि एक समाधान इन मॉडलों को गेटेड बनाना है, ताकि केवल विश्वसनीय तीसरे पक्ष जिनके पास घातक वायरस में हेरफेर करने के वैध कारण हैं, जैसे कि MIT जीव विज्ञान विभाग के शोधकर्ताओं के पास उनके अनफ़िल्टर्ड संस्करणों तक पहुंच हो।
- गार्डरेल लागू करके दुरुपयोग को रोकना।
- विश्वसनीय पार्टियों तक पहुंच को प्रतिबंधित करने के लिए मॉडलों को गेट करना।
- यह सुनिश्चित करना कि केवल अधिकृत शोधकर्ताओं के पास संवेदनशील क्षमताओं तक पहुंच हो।
उद्योग स्व-विनियमन की व्यवहार्यता
हेंड्रिक्स का मानना है कि AI कंपनियों के लिए स्व-विनियमन करना और इस प्रकार के सुरक्षा उपायों को लागू करना तकनीकी रूप से संभव है। हालांकि, उन्होंने इस बात पर चिंता व्यक्त की कि क्या कुछ कंपनियां अपने पैर खींचेंगी या आवश्यक कदम उठाने में विफल रहेंगी।
xAI, एलोन मस्क की AI लैब ने पेपर को स्वीकार किया और संकेत दिया कि कंपनी वायरोलॉजी प्रश्नों का उत्तर देने के आसपास कुछ सुरक्षा उपायों का “संभावित रूप से उपयोग” करेगी, जिसमें हानिकारक अनुरोधों को अस्वीकार करने के लिए ग्रोक को प्रशिक्षित करना और इनपुट और आउटपुट फिल्टर लागू करना शामिल है।
OpenAI ने कहा कि उसके नवीनतम मॉडल, o3 और o4-मिनी को हानिकारक आउटपुट को अवरुद्ध करने सहित जैविक-जोखिम संबंधित सुरक्षा उपायों की एक श्रृंखला के साथ तैनात किया गया था। कंपनी ने यह भी बताया कि उसने एक हजार घंटे का रेड-टीमिंग अभियान चलाया जिसमें 98.7% असुरक्षित जैव-संबंधित वार्तालापों को सफलतापूर्वक चिह्नित और अवरुद्ध किया गया।
- हानिकारक अनुरोधों को अस्वीकार करने के लिए AI मॉडल को प्रशिक्षित करना।
- खतरनाक सामग्री को अवरुद्ध करने के लिए इनपुट और आउटपुट फिल्टर लागू करना।
- जोखिमों की पहचान और शमन के लिए रेड-टीमिंग अभ्यास आयोजित करना।
नीति और विनियमन की आवश्यकता
इन प्रयासों के बावजूद, इंगल्सबी का तर्क है कि उद्योग स्व-विनियमन पर्याप्त नहीं है और AI के जैव जोखिमों को विनियमित करने के लिए सांसदों और राजनीतिक नेताओं से एक नीतिगत दृष्टिकोण विकसित करने का आह्वान करता है। उन्होंने जोर देकर कहा कि जबकि कुछ कंपनियां इन जोखिमों को दूर करने के लिए समय और पैसा लगा रही हैं, वहीं अन्य नहीं कर सकती हैं, जिससे ऐसी स्थिति पैदा हो सकती है जहां जनता को यह जानने का कोई अवसर नहीं है कि क्या हो रहा है।
इंगल्सबी ने प्रस्तावित किया कि LLM के एक नए संस्करण को जारी करने से पहले, यह सुनिश्चित करने के लिए इसका मूल्यांकन किया जाना चाहिए कि यह महामारी-स्तरीय परिणाम नहीं देगा। इसके लिए वायरोलॉजी में AI की क्षमताओं को विनियमित करने के लिए एक अधिक व्यापक और समन्वित दृष्टिकोण की आवश्यकता होगी, जिसमें उद्योग और सरकार दोनों हितधारक शामिल हों।
- महामारी-स्तरीय परिणामों को रोकने के लिए रिलीज से पहले LLM का मूल्यांकन करना।
- AI के जैव जोखिमों को विनियमित करने के लिए एक व्यापक नीतिगत दृष्टिकोण विकसित करना।
- विनियमन प्रक्रिया में उद्योग और सरकार दोनों हितधारकों को शामिल करना।
नवाचार और सुरक्षा के बीच संतुलन बनाना
चुनौती AI में नवाचार को बढ़ावा देने और यह सुनिश्चित करने के बीच संतुलन बनाने में निहित है कि इन शक्तिशाली प्रौद्योगिकियों का उपयोग घातक बायोवेपन बनाने के लिए दुरुपयोग न किया जाए। इसके लिए एक बहुआयामी दृष्टिकोण की आवश्यकता है जिसमें शामिल हैं:
- दुरुपयोग को रोकने के लिए मजबूत सुरक्षा उपाय विकसित करना।
- संवेदनशील क्षमताओं तक पहुंच को विश्वसनीय पार्टियों तक सीमित करना।
- वायरोलॉजी में AI की क्षमताओं का विनियमन करना।
- जिम्मेदार नवाचार और नैतिक विचारों को बढ़ावा देना।
इन कदमों को उठाकर, हम वायरोलॉजी अनुसंधान को आगे बढ़ाने और संक्रामक रोगों का मुकाबला करने के लिए AI की अपार क्षमता का उपयोग कर सकते हैं, जबकि इसके दुरुपयोग से जुड़े जोखिमों को कम कर सकते हैं। वायरोलॉजी में AI का भविष्य इस जटिल परिदृश्य को जिम्मेदारी से नेविगेट करने और यह सुनिश्चित करने की हमारी क्षमता पर निर्भर करता है कि इन शक्तिशाली प्रौद्योगिकियों का उपयोग मानवता के लाभ के लिए किया जाए।