गूगल की AI साइबर सुरक्षा रिपोर्ट: पहली बार AI द्वारा विकसित 'जीरो-डे' भेद्यता का खुलासा

Google की नई AI साइबर सुरक्षा रिपोर्ट में जीरो-डे भेद्यता का खुलासा

नई दिल्ली: डिजिटल दुनिया में जहाँ हम रोज़मर्रा के कामों के लिए तकनीक पर निर्भर करते हैं, वहीं साइबर सुरक्षा एक बड़ी चुनौती बनी हुई है। इसी कड़ी में, गूगल ने हाल ही में अपनी एक नई AI साइबर सुरक्षा रिपोर्ट जारी कर चौंकाने वाले खुलासे किए हैं। 11 मई को जारी इस रिपोर्ट में गूगल ने बताया कि उसे ऐसे साइबर अपराधियों का पता चला है, जो एक ‘जीरो-डे भेद्यता’ (zero-day vulnerability) का फायदा उठा रहे थे। हैरान करने वाली बात यह है कि गूगल का मानना है कि इस भेद्यता को कृत्रिम बुद्धिमत्ता (Artificial Intelligence - AI) द्वारा खोजा और विकसित किया गया था। यह पहली बार है जब गूगल ने ऐसे वास्तविक सबूत दस्तावेजित किए हैं कि AI का उपयोग इस प्रकार की कमजोरियों को पैदा करने के लिए किया जा रहा है, जो डिजिटल सुरक्षा के भविष्य के लिए गंभीर चिंताएँ पैदा करता है।

AI और साइबर सुरक्षा: एक नई और खतरनाक दौड़

यह महत्वपूर्ण खोज ऐसे समय में सामने आई है, जब एंथ्रोपिक (Anthropic) और ओपनएआई (OpenAI) जैसी प्रमुख AI कंपनियाँ ऐसे नए मॉडलों पर काम कर रही हैं, जो मनुष्यों की क्षमताओं से कहीं अधिक महत्वपूर्ण सॉफ्टवेयर कमजोरियों का पता लगाने और उनका फायदा उठाने में सक्षम हैं। गूगल के थ्रेट इंटेलिजेंस ग्रुप (Threat Intelligence Group) ने अपनी रिपोर्ट में इस घटना का विस्तृत विवरण दिया है। ‘जीरो-डे एक्सप्लॉइट्स’ (Zero-day exploits) को सबसे खतरनाक प्रकार की सुरक्षा भेद्यता माना जाता है, क्योंकि साइबर सुरक्षा कंपनियों के लिए ये पूरी तरह से अदृश्य होते हैं और हमले के समय इनके लिए कोई पैच (patch) उपलब्ध नहीं होता।

रिपोर्ट में इस बात पर विशेष ज़ोर दिया गया है कि यह पहला मौका है जब गूगल ने AI का उपयोग करके इस प्रकार की कमजोरियों को पैदा करने के वास्तविक सबूतों को दर्ज किया है। हालांकि, गूगल ने यह भी निष्कर्ष निकाला कि एंथ्रोपिक के क्लाउड मिथोस मॉडल (Cloud Mythos model) – एक ऐसी प्रणाली जिसने सभी प्रमुख ऑपरेटिंग सिस्टम (operating systems) और ब्राउज़रों (browsers) में हजारों कमजोरियों का पता लगाया है – का उपयोग उपर्युक्त जीरो-डे कोड को विकसित करने के लिए किए जाने की संभावना नहीं थी।

मिथोस मॉडल, साथ ही ओपनएआई द्वारा हाल ही में लॉन्च किया गया जीपीटी-5.5-साइबर (GPT-5.5-Cyber), वर्तमान में अमेरिकी सरकार के ध्यान का केंद्र बना हुआ है। व्हाइट हाउस (White House) अत्याधुनिक AI मॉडल को सेंसर (censor) करने और विनियमित (regulate) करने की संभावना पर चर्चा करने के लिए हितधारकों (stakeholders) के साथ लगातार बैठकें कर रहा है। रिपोर्ट प्रकाशित करने से पहले, गूगल ने प्रभावित व्यवसायों (जिनकी पहचान का खुलासा नहीं किया गया) को अपने निष्कर्षों के बारे में सूचित किया ताकि वे बग (bug) को ठीक करने के लिए तुरंत एक पैच जारी कर सकें। शोधकर्ताओं के अनुसार, यह भेद्यता एक लोकप्रिय ओपन-सोर्स वेब एडमिनिस्ट्रेशन टूल (open-source web administration tool) को लक्षित करती है जो दो-कारक प्रमाणीकरण (two-factor authentication) को दरकिनार कर सकती है।

AI-आधारित हमलों का बढ़ता खतरा और आगे की राह

गूगल थ्रेट इंटेलिजेंस ग्रुप के विश्लेषण निदेशक (Director of Analysis) जॉन हल्टक्विस्ट (John Hultquist) ने दावा किया कि यह खोज इस बात का स्पष्ट प्रमाण है कि नेटवर्क की कमजोरियों का पता लगाने के लिए AI का उपयोग करने की होड़ "वास्तव में शुरू हो गई है।" हल्टक्विस्ट ने चेतावनी देते हुए कहा, "AI के अंशों के साथ खोजी गई हर जीरो-डे वल्नरेबिलिटी (zero-day vulnerability) के लिए, इस बात की पूरी संभावना है कि अनगिनत और भी मौजूद हैं। हैकर्स समूह अपने हमलों की गति, पैमाने और जटिलता को बढ़ाने के लिए AI का लाभ उठा रहे हैं।"

हाल के महीनों में, विश्लेषकों ने लगातार यह देखा है कि हैकर्स अपने हमले के तरीकों को बेहतर बनाने के लिए AI का उपयोग तेजी से कर रहे हैं। नवंबर 2025 में (जैसा कि रिपोर्ट में बताया गया है), एंथ्रोपिक ने पहली बार हैकर्स के एक ऐसे समूह का पता लगाया जो अपने साइबर हमले के अभियानों को पूरी तरह से स्वचालित (automate) करने के लिए AI का उपयोग कर रहा था। गूगल की रिपोर्ट में यह भी बताया गया है कि अन्य हैकिंग समूह यूक्रेनी नेटवर्क (Ukrainian networks) पर मैलवेयर (malware) को निशाना बनाने के लिए AI मॉडल का उपयोग कर रहे हैं। साथ ही, APT45 हैकिंग समूह भी अपनी गतिविधियों को बेहतर बनाने और बढ़ाने के लिए इस तकनीक का इस्तेमाल कर रहा है।

अति उन्नत कृत्रिम बुद्धिमत्ता (AI) मॉडलों के उदय से यह चिंता बढ़ रही है कि इस तकनीक का जल्द ही अपराधियों और प्रतिद्वंद्वी देशों द्वारा अभूतपूर्व पैमाने पर हमले करने के लिए दुरुपयोग किया जाएगा। अब तक, एंथ्रोपिक और ओपनएआई ने केवल शोधकर्ताओं, प्रौद्योगिकी कंपनियों और सरकारी एजेंसियों के एक छोटे समूह को ही सीमित परीक्षण अधिकार (limited testing rights) प्रदान किए हैं। एंथ्रोपिक के साइबर नीति प्रमुख (Cyber Policy Head) रॉब बेयर (Rob Bear) ने पिछले सप्ताह वाशिंगटन (Washington) में आयोजित AI+एक्सपो में कहा: "चरणबद्ध रिलीज रणनीति (phased release strategy) मूल रूप से रक्षात्मक पक्ष (defensive side) के लिए एक लाभ पैदा करने के बारे में है। हमारा मानना ​​है कि इस लाभ का पूरा फायदा उठाने का सुनहरा समय महीनों में मापा जाता है, वर्षों में नहीं।" यह दर्शाता है कि साइबर सुरक्षा विशेषज्ञ AI के बढ़ते खतरों के प्रति सचेत हैं और बचाव के लिए त्वरित उपायों की आवश्यकता को समझते हैं। आने वाले समय में AI-आधारित साइबर हमलों का मुकाबला करने के लिए वैश्विक सहयोग और उन्नत सुरक्षा रणनीतियों की आवश्यकता पहले से कहीं अधिक होगी।

*Image is AI-generated and used for representational purposes only.

एक टिप्पणी भेजें