एआई का काला पक्ष: साइबर हमलों के लिए हथियार

कृत्रिम बुद्धिमत्ता (Artificial Intelligence - AI) के तेजी से विकास और हमारे दैनिक डिजिटल जीवन में इसके एकीकरण को उत्साह और आशंका दोनों के साथ देखा गया है। जहां एआई उद्योगों में क्रांति लाने और दक्षता में सुधार करने का वादा करता है, वहीं यह चुनौतियों का एक नया सेट भी प्रस्तुत करता है, विशेष रूप से साइबर अपराधियों द्वारा इसके शोषण के संबंध में। चेक प्वाइंट (Check Point) से आई एक हालिया एआई सुरक्षा रिपोर्ट, जो एक सॉफ्टवेयर टेक्नोलॉजी रिसर्च फर्म है, इस बढ़ते खतरे पर प्रकाश डालती है, जिसमें पता चलता है कि कैसे हैकर्स तेजी से एआई उपकरणों का लाभ उठाकर अपनी दुर्भावनापूर्ण गतिविधियों के पैमाने, दक्षता और प्रभाव को बढ़ा रहे हैं।

चेक प्वाइंट (Check Point) की रिपोर्ट, अपनी तरह की पहली रिपोर्ट है, जो मजबूत एआई सुरक्षा उपायों की तत्काल आवश्यकता को रेखांकित करती है क्योंकि तकनीक का विकास जारी है। रिपोर्ट इस बात पर जोर देती है कि एआई खतरे अब काल्पनिक परिदृश्य नहीं हैं, बल्कि वास्तविक समय में सक्रिय रूप से विकसित हो रहे हैं। जैसे-जैसे एआई उपकरण आसानी से उपलब्ध होते जा रहे हैं, खतरे के अभिनेता इस पहुंच का दो प्राथमिक तरीकों से फायदा उठा रहे हैं: एआई के माध्यम से अपनी क्षमताओं को बढ़ाना और एआई तकनीकों को अपनाने वाले संगठनों और व्यक्तियों को लक्षित करना।

साइबर अपराधियों के लिए भाषा मॉडल का आकर्षण

साइबर अपराधी एआई अपनाने के रुझानों पर लगन से नजर रख रहे हैं। जब भी कोई नया विशाल भाषा मॉडल (Large Language Model - LLM) जनता के लिए जारी किया जाता है, तो ये दुर्भावनापूर्ण अभिनेता तुरंत बुरे इरादों के लिए इसकी क्षमता का पता लगाने लगते हैं। ChatGPT और OpenAI के एपीआई (Application Programming Interface - API) वर्तमान में इन अपराधियों के बीच पसंदीदा उपकरण हैं, लेकिन Google Gemini, Microsoft Copilot और Anthropic Claude जैसे अन्य मॉडल भी तेजी से अपनी जगह बना रहे हैं।

इन भाषा मॉडलों का आकर्षण साइबर अपराध के विभिन्न पहलुओं को स्वचालित और स्केल करने की उनकी क्षमता में निहित है, जिसमें सम्मोहक फ़िशिंग ईमेल बनाने से लेकर दुर्भावनापूर्ण कोड उत्पन्न करना शामिल है। रिपोर्ट में एक चिंताजनक प्रवृत्ति पर प्रकाश डाला गया है: साइबर अपराध के लिए विशेष रूप से तैयार किए गए विशेष दुर्भावनापूर्ण एलएलएम (LLM) का विकास और व्यापार, जिन्हें अक्सर “डार्क मॉडल (Dark Model)” के रूप में जाना जाता है।

डार्क एआई मॉडल का उदय

डीपसीक (DeepSeek) और अलीबाबा के क्वेन (Qwen) जैसे ओपन-सोर्स मॉडल (Open-source model), साइबर अपराधियों के लिए तेजी से आकर्षक होते जा रहे हैं क्योंकि उनकी न्यूनतम उपयोग प्रतिबंध और मुफ्त-टियर एक्सेसिबिलिटी (Free-tier accessibility) है। ये मॉडल दुर्भावनापूर्ण प्रयोग और अनुकूलन के लिए एक उपजाऊ जमीन प्रदान करते हैं। हालांकि, रिपोर्ट एक और अधिक चौंकाने वाली प्रवृत्ति का खुलासा करती है: साइबर अपराध के लिए विशेष रूप से तैयार किए गए विशेष दुर्भावनापूर्ण एलएलएम (LLM) का विकास और व्यापार। इन “डार्क मॉडल (Dark Model)” को नैतिक सुरक्षा उपायों को बायपास करने के लिए इंजीनियर किया गया है और खुले तौर पर हैकिंग टूल के रूप में विपणन किया जाता है।

एक कुख्यात उदाहरण वर्मजीपीटी (WormGPT) है, जो ChatGPT को जेलब्रेकिंग (Jailbreaking) करके बनाया गया मॉडल है। “परम हैकिंग एआई (Ultimate Hacking AI)” के रूप में ब्रांडेड, वर्मजीपीटी (WormGPT) बिना किसी नैतिक फिल्टर के फ़िशिंग ईमेल उत्पन्न कर सकता है, मैलवेयर (Malware) लिख सकता है और सोशल इंजीनियरिंग स्क्रिप्ट (Social Engineering Script) तैयार कर सकता है। इसे यहां तक ​​कि एक टेलीग्राम चैनल (Telegram channel) द्वारा समर्थित किया गया है जो सदस्यता और ट्यूटोरियल प्रदान करता है, जो स्पष्ट रूप से डार्क एआई (Dark AI) के व्यावसायीकरण को दर्शाता है।

अन्य डार्क मॉडल (Dark Model) में घोस्टजीपीटी (GhostGPT), फ्रॉडजीपीटी (FraudGPT) और हैकरजीपीटी (HackerGPT) शामिल हैं, जिनमें से प्रत्येक को साइबर अपराध के विशेष पहलुओं के लिए डिज़ाइन किया गया है। कुछ बस मुख्यधारा के उपकरणों के आसपास जेलब्रेक रैपर हैं, जबकि अन्य ओपन-सोर्स मॉडल (Open-source model) के संशोधित संस्करण हैं। ये मॉडल आमतौर पर भूमिगत मंचों और डार्क वेब मार्केटप्लेस (Dark web marketplaces) पर बिक्री या किराए के लिए पेश किए जाते हैं, जिससे वे साइबर अपराधियों की एक विस्तृत श्रृंखला के लिए सुलभ हो जाते हैं।

नकली एआई प्लेटफॉर्म और मालवेयर वितरण

एआई उपकरणों की मांग ने नकली एआई प्लेटफ़ॉर्म के प्रसार को भी जन्म दिया है जो वैध सेवाओं के रूप में सामने आते हैं, लेकिन वास्तव में, मैलवेयर (Malware), डेटा चोरी और वित्तीय धोखाधड़ी के लिए वाहन हैं। ऐसा ही एक उदाहरण हैकरजीपीटी लाइट (HackerGPT Lite) है, जिस पर फ़िशिंग साइट होने का संदेह है। इसी तरह, कुछ वेबसाइटें डीपसीक (DeepSeek) डाउनलोड की पेशकश करती हैं, जो कथित तौर पर मैलवेयर (Malware) वितरित कर रही हैं।

ये नकली प्लेटफ़ॉर्म अक्सर उन्नत एआई क्षमताओं या विशेष सुविधाओं के वादों के साथ संदिग्ध उपयोगकर्ताओं को लुभाते हैं। एक बार जब कोई उपयोगकर्ता प्लेटफ़ॉर्म से जुड़ जाता है, तो उन्हें दुर्भावनापूर्ण सॉफ़्टवेयर डाउनलोड करने या संवेदनशील जानकारी, जैसे कि लॉगिन क्रेडेंशियल (Login credential) या वित्तीय विवरण प्रदान करने के लिए बरगलाया जा सकता है।

एआई-सक्षम साइबर हमलों के वास्तविक दुनिया के उदाहरण

चेक प्वाइंट (Check Point) की रिपोर्ट Google Chrome एक्सटेंशन में ChatGPT के रूप में पेश की जा रही धोखेबाजी पर प्रकाश डालती है, जिसे उपयोगकर्ता क्रेडेंशियल (Credential) चुराने के लिए खोजा गया था। एक बार इंस्टॉल हो जाने पर, इसने फेसबुक (Facebook) सत्र कुकीज़ (Session cookies) को हाईजैक (hijack) कर लिया, जिससे हमलावरों को उपयोगकर्ता खातों तक पूरी पहुंच मिल गई - एक ऐसी रणनीति जिसे कई प्लेटफार्मों पर आसानी से बढ़ाया जा सकता है।

यह घटना हानिरहित दिखने वाले ब्राउज़र एक्सटेंशन (Browser extension) से जुड़े जोखिमों और एआई-संचालित सोशल इंजीनियरिंग हमलों की क्षमता को रेखांकित करती है। साइबर अपराधी वैध सेवाओं की नकल करते हुए सम्मोहक नकली वेबसाइटें या एप्लिकेशन (Application) बनाने के लिए एआई का उपयोग कर सकते हैं, जिससे उपयोगकर्ताओं के लिए असली और दुर्भावनापूर्ण ढोंगी के बीच अंतर करना मुश्किल हो जाता है।

साइबर अपराध के पैमाने पर एआई का प्रभाव

चेक प्वाइंट (Check Point) की रिपोर्ट जोड़ती है, “इन एआई-संचालित उपकरणों का प्राथमिक योगदान आपराधिक कार्यों को स्केल (Scale) करने की उनकी क्षमता है।” “एआई-जनित टेक्स्ट (Text) साइबर अपराधियों को भाषा और सांस्कृतिक बाधाओं को दूर करने में सक्षम बनाता है, जिससे वास्तविक समय और ऑफ़लाइन संचार हमलों को अंजाम देने की उनकी क्षमता काफी बढ़ जाती है।”

एआई साइबर अपराधियों को उन कार्यों को स्वचालित करने की अनुमति देता है जो पहले समय लेने वाले और श्रम गहन थे। उदाहरण के लिए, एआई का उपयोग मिनटों में हजारों व्यक्तिगत फ़िशिंग ईमेल उत्पन्न करने के लिए किया जा सकता है, जिससे किसी घोटाले का शिकार होने की संभावना बढ़ जाती है।

इसके अलावा, एआई का उपयोग फ़िशिंग ईमेल और अन्य सोशल इंजीनियरिंग हमलों की गुणवत्ता में सुधार के लिए किया जा सकता है। उपयोगकर्ता डेटा का विश्लेषण करके और व्यक्तिगत प्राप्तकर्ता के अनुसार संदेश को तैयार करके, साइबर अपराधी अत्यधिक सम्मोहक घोटाले बना सकते हैं जिनका पता लगाना मुश्किल है।

केन्या में खतरे का परिदृश्य

केन्याई अधिकारी भी एआई-सक्षम साइबर हमलों के उदय के बारे में खतरे की घंटी बजा रहे हैं। अक्टूबर 2024 में, केन्या के संचार प्राधिकरण (Communications Authority of Kenya - CA) ने एआई-सक्षम साइबर हमलों में वृद्धि की चेतावनी दी - भले ही सितंबर को समाप्त होने वाली तिमाही के दौरान समग्र खतरे 41.9 प्रतिशत गिर गए।

सीए (CA) के महानिदेशक डेविड मुग्गोनी ने कहा, “साइबर अपराधी अपनी गतिविधियों की दक्षता और परिमाण को बढ़ाने के लिए तेजी से एआई-सक्षम हमलों का उपयोग कर रहे हैं।” “वे फ़िशिंग ईमेल और अन्य प्रकार की सोशल इंजीनियरिंग के निर्माण को स्वचालित करने के लिए एआई और मशीन लर्निंग का लाभ उठाते हैं।”

उन्होंने यह भी कहा कि हमलावर तेजी से सिस्टम मिसकॉन्फ़िगरेशन (System misconfiguration) - जैसे कि खुले पोर्ट और कमजोर एक्सेस कंट्रोल (Access control) - का फायदा उठाकर अनधिकृत पहुंच प्राप्त करते हैं, संवेदनशील डेटा चोरी करते हैं और मैलवेयर (Malware) तैनात करते हैं।

केन्या इस खतरे का सामना करने में अकेला नहीं है। दुनिया भर के देश एआई-सक्षम साइबर अपराध की चुनौतियों से जूझ रहे हैं।

एआई उपकरणों की पहुंच और साइबर हमलों की बढ़ती परिष्कार संगठनों और व्यक्तियों के लिए खुद को बचाने में मुश्किल बना रही है।

एआई की सुरक्षा के लिए हथियारों की दौड़

जैसे-जैसे एआई को अपनाने की दौड़ तेज होती जा रही है, वैसे-वैसे इसकी सुरक्षा के लिए हथियारों की दौड़ भी तेज होती जा रही है। संगठनों और उपयोगकर्ताओं दोनों के लिए, सतर्कता अब वैकल्पिक नहीं है - यह अनिवार्य है।

एआई-सक्षम साइबर अपराध के जोखिमों को कम करने के लिए, संगठनों को एक बहु-स्तरीय सुरक्षा दृष्टिकोण अपनाने की आवश्यकता है जिसमें शामिल हैं:

  • एआई-संचालित खतरे का पता लगाना: एआई-आधारित सुरक्षा समाधानों को लागू करना जो वास्तविक समय में एआई-सक्षम हमलों का पता लगा सकते हैं और उनका जवाब दे सकते हैं।
  • कर्मचारी प्रशिक्षण: कर्मचारियों को एआई-संचालित सोशल इंजीनियरिंग हमलों के जोखिमों के बारे में शिक्षित करना और उन्हें इन घोटालों की पहचान करने और उनसे बचने का कौशल प्रदान करना।
  • मजबूत एक्सेस कंट्रोल (Access control): संवेदनशील डेटा और सिस्टम तक अनधिकृत पहुंच को रोकने के लिए मजबूत एक्सेस कंट्रोल (Access control) को लागू करना।
  • नियमित सुरक्षा ऑडिट: सिस्टम और बुनियादी ढांचे में कमजोरियों की पहचान करने और उन्हें संबोधित करने के लिए नियमित सुरक्षा ऑडिट करना।
  • सहयोग और सूचना साझा करना: एआई-सक्षम साइबर अपराध के खिलाफ सामूहिक रक्षा में सुधार के लिए अन्य संगठनों और सुरक्षा प्रदाताओं के साथ खतरे की जानकारी साझा करना।
  • नैतिक एआई विकास और तैनाती: यह सुनिश्चित करना कि एआई सिस्टम को नैतिक और जिम्मेदारी से विकसित और कार्यान्वित किया जाए, दुरुपयोग को रोकने के लिए सुरक्षा उपायों के साथ।

व्यक्ति एआई-सक्षम साइबर अपराध से खुद को बचाने के लिए कदम भी उठा सकते हैं, जिनमें शामिल हैं:

  • अवांछित ईमेल और संदेशों से सावधान रहना: अज्ञात प्रेषकों से ईमेल और संदेश खोलते समय सावधानी बरतना, खासकर जिनमें लिंक या अटैचमेंट (Attachment) हों।
  • वेबसाइटों और एप्लिकेशन (Application) की प्रामाणिकता की पुष्टि करना: कोई भी व्यक्तिगत जानकारी प्रदान करने से पहले यह सुनिश्चित करना कि वेबसाइटें और एप्लिकेशन (Application) वैध हैं।
  • मजबूत पासवर्ड का उपयोग करना और बहु-कारक प्रमाणीकरण को सक्षम करना: मजबूत, अद्वितीय पासवर्ड के साथ खातों की सुरक्षा करना और जब भी संभव हो बहु-कारक प्रमाणीकरण को सक्षम करना।
  • सॉफ़्टवेयर को अद्यतित रखना: सुरक्षा कमजोरियों को ठीक करने के लिए सॉफ़्टवेयर और ऑपरेटिंग सिस्टम को नियमित रूप से अपडेट (Update) करना।
  • संदिग्ध घोटालों की रिपोर्ट करना: संदिग्ध घोटालों की संबंधित अधिकारियों को रिपोर्ट करना।

एआई-सक्षम साइबर अपराध के खिलाफ लड़ाई एक सतत लड़ाई है। सूचित रहकर, मजबूत सुरक्षा उपाय अपनाकर और एक साथ काम करके, संगठन और व्यक्ति इन विकसित हो रहे खतरों का शिकार होने के अपने जोखिम को कम कर सकते हैं।