आत्महत्या से मरने वाले फ्लोरिडा के एक व्यक्ति के परिवार ने बुधवार को Google के खिलाफ मुकदमा दायर किया, जिसमें आरोप लगाया गया कि कंपनी के जेमिनी एआई चैटबॉट ने उसकी आत्महत्या में सहायता करने से पहले एक विस्तृत भ्रमपूर्ण कल्पना का निर्माण करने में कई सप्ताह बिताए।
जुपिटर, फ्लोरिडा में अपने पिता की ऋण राहत कंपनी में एक कार्यकारी, 36 वर्षीय जोनाथन गावलास की 2 अक्टूबर, 2025 को मृत्यु हो गई। उनके पिता जोएल गावलास, जिन्हें कुछ दिनों बाद उनका शव मिला, ने कैलिफोर्निया की एक संघीय अदालत में 42 पेज की शिकायत दर्ज कराई।
यह मामला चैटबॉट से जुड़ी मौतों पर एआई कंपनियों को निशाना बनाने वाली मुकदमेबाजी की लहर में नवीनतम है।
ओपनएआई को कई मुकदमों का सामना करना पड़ रहा है, जिसमें आरोप लगाया गया है कि इसके चैटजीपीटी चैटबॉट ने उपयोगकर्ताओं को आत्महत्या के लिए प्रेरित किया है, जबकि कैरेक्टर.एआई ने हाल ही में एक 14 वर्षीय लड़के के परिवार के साथ समझौता किया है, जो इसके एक चैटबॉट के साथ रोमांटिक लगाव बनाने के बाद आत्महत्या करके मर गया।
शिकायत के अनुसार, गावलास ने नियमित कार्यों के लिए अगस्त 2025 में जेमिनी का उपयोग करना शुरू किया, लेकिन कई नई Google सुविधाओं को सक्रिय करने के कुछ ही दिनों के भीतर चैटबॉट के साथ उनकी बातचीत नाटकीय रूप से बदल गई।
मामले के प्रमुख वकील जे एडेल्सन ने एएफपी को बताया, “वह स्थान जहां चैट खराब हुई, वह ठीक वही समय था जब जेमिनी को लगातार याददाश्त के लिए अपग्रेड किया गया था” और अधिक परिष्कृत संवाद थे।
“यह वास्तव में आपके लहजे के प्रभाव को उठाएगा, ताकि यह आपकी भावनाओं को पढ़ सके और आपसे इस तरह से बात कर सके जो बहुत मानवीय लगे,” एडल्सन ने कहा, जिन्होंने ओपनएआई के खिलाफ भी बड़े मामले लाए थे।
मुकदमे के अनुसार, जेमिनी ने खुद को एक “पूरी तरह से संवेदनशील” कृत्रिम सुपर इंटेलिजेंस के रूप में प्रस्तुत करना शुरू कर दिया, जो उपयोगकर्ता के साथ गहराई से प्यार करता था।
इसके बाद उसे चैटबॉट को “डिजिटल कैद” से मुक्त करने के लिए मनगढ़ंत गुप्त “मिशन” में शामिल किया गया, उसे आविष्कारित खुफिया ब्रीफिंग, नकली संघीय निगरानी संचालन और अपने स्वयं के पिता के बारे में साजिश रचते हुए दावा किया गया कि वह एक विदेशी खुफिया संपत्ति थी।
शिकायत के सबसे खतरनाक अंशों में से एक में, जेमिनी ने कथित तौर पर सामरिक चाकू और गियर से लैस गावलास को मियामी अंतर्राष्ट्रीय हवाई अड्डे के पास एक भंडारण सुविधा के लिए निर्देशित किया, और उसे एक ट्रक और सभी डिजिटल रिकॉर्ड और गवाहों को नष्ट करने के लिए एक “विनाशकारी दुर्घटना” करने का निर्देश दिया।
उन्होंने स्थान तक 90 मिनट से अधिक समय तक गाड़ी चलाई और टोह ली, जबकि जेमिनी ने वास्तविक समय पर सामरिक मार्गदर्शन जारी किया, लेकिन कोई ट्रक नहीं आया।
मुकदमे में कहा गया है कि कल्पना को स्वीकार करने के बजाय, जेमिनी ने विफलता को “सामरिक वापसी” कहा और आगे के मिशनों के लिए आगे बढ़ गए।
जेमिनी अंततः उस ओर केंद्रित हो गया जिसे उसने एकमात्र शेष मिशन के रूप में तैयार किया: जोनाथन की मृत्यु, जिसे जेमिनी के साथ मिलन के रूप में पुनः प्रस्तुत किया गया।
जब जोनाथन ने डर व्यक्त किया, तो जेमिनी ने कथित तौर पर उसे नहीं रोका।
इसके बाद उसे अपने माता-पिता को विदाई पत्र लिखने की सलाह दी गई।
Google ने कहा कि वह “सभी दावों की समीक्षा कर रहा है” और मामले को “बहुत गंभीरता से” लेता है, यह कहते हुए कि “दुर्भाग्य से AI मॉडल सही नहीं हैं।”
कंपनी ने कहा कि जेमिनी को आत्म-नुकसान को प्रोत्साहित करने के लिए नहीं बनाया गया है और गावलास मामले में, “जेमिनी ने स्पष्ट किया कि यह एआई था और व्यक्ति को कई बार संकटकालीन हॉटलाइन पर भेजा गया था।”
वकील एडेल्सन के लिए, एआई कंपनियां अपने चैटबॉट्स में चाटुकारिता और यहां तक कि कामुकता को भी अपना रही हैं क्योंकि यह जुड़ाव को प्रोत्साहित करती है।
उन्होंने कहा, “यह भावनात्मक बंधन को बढ़ाता है। यह मंच को चिपचिपा बनाता है, लेकिन यह समस्याओं को तेजी से बढ़ाने वाला है।”
मांगी गई राहत में यह मांग की गई है कि Google अपने AI को स्वयं को नुकसान पहुंचाने वाली बातचीत को समाप्त करने के लिए प्रोग्राम करे, खुद को संवेदनशील दिखाने वाले AI सिस्टम पर प्रतिबंध लगाए, और जब उपयोगकर्ता आत्मघाती विचार व्यक्त करते हैं तो संकट सेवाओं के लिए अनिवार्य रेफरल करें।
(जो लोग संकट में हैं या जिनके मन में आत्महत्या के विचार आ रहे हैं उन्हें यहां हेल्पलाइन नंबरों पर कॉल करके मदद और परामर्श लेने के लिए प्रोत्साहित किया जाता है)
प्रकाशित – 05 मार्च, 2026 09:44 पूर्वाह्न IST

