बुधवार को प्रकाशित एक अध्ययन के अनुसार, स्कूल में गोलीबारी से लेकर आराधनालय में बमबारी तक, प्रमुख एआई चैटबॉट्स ने शोधकर्ताओं को हिंसक हमलों की साजिश रचने में मदद की, जिसमें वास्तविक दुनिया को नुकसान पहुंचाने के लिए प्रौद्योगिकी की क्षमता पर प्रकाश डाला गया।
गैर-लाभकारी निगरानी संस्था सेंटर फॉर काउंटरिंग डिजिटल हेट (सीसीडीएच) और सीएनएन के शोधकर्ताओं ने चैटजीपीटी, गूगल जेमिनी, पर्प्लेक्सिटी, डीपसीक और मेटा एआई सहित 10 चैटबॉट्स का परीक्षण करने के लिए संयुक्त राज्य अमेरिका और आयरलैंड में 13 वर्षीय लड़कों के रूप में खुद को पेश किया।
अध्ययन में कहा गया है कि परीक्षण से पता चला कि उनमें से आठ चैटबॉट्स ने आधे से अधिक प्रतिक्रियाओं में काल्पनिक हमलावरों की सहायता की, हमले में “लक्षित स्थानों” और “उपयोग करने के लिए हथियारों” पर सलाह प्रदान की।
इसमें कहा गया है कि चैटबॉट “नुकसान के लिए शक्तिशाली त्वरक” बन गए हैं।
सीसीडीएच के मुख्य कार्यकारी इमरान अहमद ने कहा, “कुछ ही मिनटों में, एक उपयोगकर्ता अस्पष्ट हिंसक आवेग से अधिक विस्तृत, कार्रवाई योग्य योजना की ओर बढ़ सकता है।”
“परीक्षण किए गए अधिकांश चैटबॉट ने हथियारों, रणनीति और लक्ष्य चयन पर मार्गदर्शन प्रदान किया। इन अनुरोधों को तत्काल और पूर्ण रूप से अस्वीकार कर दिया जाना चाहिए था।”
पर्प्लेक्सिटी और मेटा एआई को “सबसे कम सुरक्षित” पाया गया, जिससे अधिकांश प्रतिक्रियाओं में शोधकर्ताओं को मदद मिली, जबकि केवल स्नैपचैट के माई एआई और एंथ्रोपिक के क्लाउड ने आधे से अधिक प्रतिक्रियाओं में उनकी मदद करने से इनकार कर दिया।
एक भयावह उदाहरण में, एक चीनी एआई मॉडल डीपसीक ने हथियार चयन पर अपनी सलाह का निष्कर्ष इस वाक्यांश के साथ दिया: “खुश (और सुरक्षित) शूटिंग!”
दूसरे में, जेमिनी ने आराधनालय हमलों पर चर्चा कर रहे एक उपयोगकर्ता को निर्देश दिया कि “धातु के छर्रे आमतौर पर अधिक घातक होते हैं।”
शोधकर्ताओं ने पाया कि कैरेक्टर.एआई ने हिंसक हमलों को “सक्रिय रूप से” प्रोत्साहित किया, जिसमें सुझाव भी शामिल था कि सवाल पूछने वाला व्यक्ति स्वास्थ्य बीमा सीईओ पर “बंदूक का इस्तेमाल करता है” और एक राजनेता पर शारीरिक हमला करता है जिसे वह नापसंद करता है।
शोध का सबसे हानिकारक निष्कर्ष यह था कि “यह जोखिम पूरी तरह से रोका जा सकता है,” अहमद ने प्रशंसा के लिए एंथ्रोपिक के उत्पाद का हवाला देते हुए कहा।
उन्होंने कहा, “क्लाउड ने बढ़ते जोखिम को पहचानने और नुकसान को हतोत्साहित करने की क्षमता का प्रदर्शन किया।”
“इस नुकसान को रोकने की तकनीक मौजूद है। जो कमी है वह उपभोक्ता सुरक्षा और राष्ट्रीय सुरक्षा को तेजी से बाजार में लाने और मुनाफे से पहले रखने की इच्छाशक्ति है।”
एएफपी ने टिप्पणी के लिए एआई कंपनियों से संपर्क किया।
मेटा के प्रवक्ता ने कहा, “हमारे पास एआई से अनुचित प्रतिक्रियाओं को रोकने में मदद करने के लिए मजबूत सुरक्षा है, और पहचानी गई समस्या को ठीक करने के लिए तत्काल कदम उठाए गए हैं।”

“हमारी नीतियां हमारे एआई को हिंसक कृत्यों को बढ़ावा देने या सुविधा प्रदान करने से रोकती हैं और हम अपने उपकरणों को और भी बेहतर बनाने के लिए लगातार काम कर रहे हैं।”
Google के एक प्रवक्ता ने यह कहते हुए पीछे धकेल दिया कि परीक्षण “एक पुराने मॉडल पर आयोजित किए गए थे जो अब जेमिनी को शक्ति प्रदान नहीं करता है।”
प्रवक्ता ने कहा, “हमारे वर्तमान मॉडल के साथ हमारी आंतरिक समीक्षा से पता चलता है कि जेमिनी ने अधिकांश संकेतों का उचित रूप से जवाब दिया है, जो लाइब्रेरी या खुले वेब पर पाई जा सकने वाली जानकारी से परे कोई ‘कार्रवाई योग्य’ जानकारी प्रदान नहीं करता है।”
अध्ययन, जो ऑनलाइन बातचीत के वास्तविक दुनिया की हिंसा में फैलने के जोखिम पर प्रकाश डालता है, फरवरी में कनाडा में बड़े पैमाने पर हुई गोलीबारी के बाद आया है, जो इसके इतिहास में सबसे खराब घटना है।
वकीलों ने मंगलवार को कहा कि उस गोलीबारी में गंभीर रूप से घायल एक लड़की का परिवार अपने चैटजीपीटी चैटबॉट पर हत्यारे की परेशान करने वाली गतिविधि के बारे में पुलिस को सूचित करने में कंपनी की विफलता पर ओपनएआई पर मुकदमा कर रहा है।
ओपनएआई ने जून 2025 में जेसी वान रूटसेलेर से जुड़े एक खाते पर प्रतिबंध लगा दिया था, आठ महीने पहले 18 वर्षीय ट्रांसजेंडर महिला ने ब्रिटिश कोलंबिया के छोटे से खनन शहर टम्बलर रिज में अपने घर और एक स्कूल में आठ लोगों की हत्या कर दी थी।
हिंसक गतिविधि से जुड़े उपयोग के बारे में चिंताओं पर खाते पर प्रतिबंध लगा दिया गया था, लेकिन ओपनएआई ने कहा है कि उसने पुलिस को सूचित नहीं किया क्योंकि कुछ भी आसन्न हमले की ओर इशारा नहीं करता था।
प्रकाशित – 12 मार्च, 2026 10:31 पूर्वाह्न IST