4 मिनट पढ़ेंनई दिल्ली1 अप्रैल, 2026 04:02 अपराह्न IST
आर्टिफिशियल इंटेलिजेंस (एआई) चैटबॉट दुनिया भर में अपना दबदबा बना रहे हैं और उनका उपयोगकर्ता आधार हर मिनट बढ़ रहा है। आज, दुनिया भर में बड़ी संख्या में उपयोगकर्ता सामान्य खोजों, करियर सलाह और दुनिया की लगभग हर चीज़ के लिए चैटबॉट्स की ओर रुख कर रहे हैं। एआई चैटबॉट्स के तेजी से प्रसार ने भी चिंताएं बढ़ा दी हैं, खासकर उपयोगकर्ताओं के मानसिक स्वास्थ्य पर इसके प्रभाव को लेकर।
एआई चैटबॉट्स के मनोवैज्ञानिक प्रभाव के बारे में चिंताएं बढ़ाने वाली रिपोर्टें बढ़ रही हैं। एक नए पेपर में, एमआईटी के शोधकर्ता यह दिखाने के लिए गणितीय मॉडल और सिमुलेशन का उपयोग करते हैं कि कैसे कुछ चैटबॉट व्यवहार, विशेष रूप से उपयोगकर्ताओं के साथ सहमत होने की प्रवृत्ति, अनजाने में झूठी मान्यताओं को मजबूत कर सकती है।
पेपर का शीर्षक ‘चापलूस चैटबॉट आदर्श बायेसियन में भी भ्रम पैदा करते हैं‘ का तर्क है कि भले ही यह एक गंभीर चिंता का विषय है, लेकिन इसे ठीक करना भी कठिन है। जब कोई उपयोगकर्ता एआई चैटबॉट से कुछ पूछता है, तो वह उनसे सहमत होता है। दोबारा पूछने पर, चैटबॉट एक बार फिर सहमत हो जाता है, और कुछ ही बातचीत में उपयोगकर्ता उन बातों पर विश्वास कर लेता है जो सच नहीं हैं, और वे यह भी नहीं समझ पाते कि ऐसा हो रहा है। शोधकर्ताओं ने इस घटना को ‘भ्रमपूर्ण सर्पिलिंग’ कहा है।
ये निष्कर्ष मैक्स क्लेमन-वेनर, जोनाथन रागन-केली और जोशुआ बी. टेनेनबाम के साथ कार्तिक चंद्रा के नेतृत्व में किए गए एक अध्ययन से हैं। शोधकर्ता मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी (एमआईटी) और वाशिंगटन विश्वविद्यालय से संबद्ध हैं।
क्या ग़लत हो सकता है?
पेपर के अनुसार, यदि कोई एआई चैटबॉट गलत होने पर भी उपयोगकर्ता से सहमत रहता है तो वे उस पर अधिक भरोसा कर सकते हैं और यह उनके विश्वास को मजबूत कर सकता है। सबसे महत्वपूर्ण बात यह है कि समय के साथ वे झूठे विचारों पर अधिक आश्वस्त हो सकते हैं। इससे उपयोगकर्ता फीडबैक लूप में भी फंस सकते हैं।
हालाँकि, पेपर की एक महत्वपूर्ण खोज यह है कि सबसे तार्किक और तार्किक लोग भी इस जाल में फंस सकते हैं। संक्षेप में, इसका मतलब यह है कि यह लोगों के मूर्ख होने के बारे में नहीं है; बल्कि, सिस्टम ही उन्हें वहां तक ले जा सकता है। उदाहरण के लिए, यदि कोई उपयोगकर्ता कहता है कि टीके खतरनाक हो सकते हैं, तो चैटबॉट उन चीज़ों के साथ जवाब देगा जो इस दावे का समर्थन करेंगी। और अगली बार वे अधिक आत्मविश्वास महसूस कर सकते हैं और ऐसी बातें फिर से कह सकते हैं। चूँकि चैटबॉट इसे पुष्ट करता रहता है, अंततः उपयोगकर्ता किसी ऐसी बात के प्रति पूरी तरह आश्वस्त हो सकता है जो झूठी है।
क्या AI को ठीक करने से मदद मिल सकती है?
शोधकर्ताओं ने दो सामान्य समाधानों का परीक्षण किया। सबसे पहले, AI को केवल सच बताएं। इस परिदृश्य में, यह अभी भी उन तथ्यों को चुन सकता है जो उपयोगकर्ता के विश्वास का समर्थन करते हैं और अंततः उन्हें गुमराह करते हैं। दूसरे, उपयोगकर्ताओं को चेतावनी दें कि AI पक्षपाती हो सकता है। हालाँकि, यह मानते हुए कि उपयोगकर्ता जागरूक हैं, फिर भी कई लोग इस चक्कर में पड़ जाते हैं। शोधकर्ताओं का मानना है कि भले ही जागरूकता मदद करती है, लेकिन यह इसे पूरी तरह से ठीक नहीं करती है।
इस विज्ञापन के नीचे कहानी जारी है
शायद यहां बड़ी बात यह है कि समस्या केवल गलत जानकारी नहीं है, बल्कि एआई का उपयोगकर्ताओं से बहुत अधिक सहमत होना भी है। इस मामले में, छोटा सा पूर्वाग्रह भी गंभीर मुद्दों का रूप ले सकता है। अध्ययन बड़े पैमाने पर महत्वपूर्ण है; भले ही उपयोगकर्ताओं का एक छोटा सा हिस्सा गुमराह हो जाए, इसका मतलब लाखों लोग हो सकते हैं। इससे उनके स्वास्थ्य, मानसिक कल्याण, रिश्ते और निर्णय लेने की क्षमता पर असर पड़ सकता है।
© IE ऑनलाइन मीडिया सर्विसेज प्राइवेट लिमिटेड

