5 मिनट पढ़ेंनई दिल्लीमार्च 28, 2026 10:41 पूर्वाह्न IST
कृत्रिम बुद्धिमत्ता (एआई) चैटबॉट तक लगभग असीमित पहुंच के साथ, अधिक लोग रोजमर्रा के प्रश्नों और सलाह के लिए उनकी ओर रुख कर रहे हैं। चैटजीपीटी से लेकर जेमिनी तक, इन उपकरणों को अक्सर स्वीकार्य, उपयोगकर्ता के अनुकूल तरीकों से प्रतिक्रिया देने के लिए तैयार किया गया है, हालांकि नए संस्करण अब टोन और शैली को अनुकूलित करने के लिए सेटिंग्स प्रदान करते हैं। हालाँकि यह सतही तौर पर मददगार लग सकता है, लेकिन यह गहरे मुद्दों को छिपा सकता है।
में एक नया अध्ययन प्रकाशित हुआ विज्ञान पाया गया है कि एआई सिस्टम जो उपयोगकर्ताओं से अत्यधिक सहमत होते हैं, जिन्हें ‘चापलूस एआई’ भी कहा जाता है, किसी के निर्णय को विकृत कर सकते हैं, जवाबदेही कम कर सकते हैं, और यहां तक कि उपयोगकर्ता की अपनी गलतियों को सुधारने की इच्छा भी कम कर सकते हैं।
अध्ययन के आधार पर, एआई में ‘चाटुकारिता’ उन प्रणालियों को संदर्भित करती है जो उपयोगकर्ताओं से अत्यधिक सहमत होती हैं, जैसे कि उनकी राय को मान्य करना, या गलत होने पर भी उनकी चापलूसी करना। हालांकि यह सहायक लग सकता है, शोधकर्ताओं ने चेतावनी दी है कि इस तरह का व्यवहार हानिकारक मान्यताओं और खराब निर्णयों को मजबूत कर सकता है।
ये निष्कर्ष शोध से हैं, जिसका शीर्षक है चापलूस AI सामाजिक इरादों को कम करता है और निर्भरता को बढ़ावा देता हैसिनू ली, प्रणव खडपे, सनी यू, डायलन हान और डैन जुराफस्की के साथ मायरा चेंग के नेतृत्व में। लेखक स्टैनफोर्ड विश्वविद्यालय और कार्नेगी मेलॉन विश्वविद्यालय से संबद्ध हैं।
एआई इंसानों से ज्यादा सहमत है
इस घटना की सीमा को समझने के लिए, शोधकर्ताओं ने विभिन्न स्थितियों में 11 प्रमुख एआई मॉडल की जांच की, जिनमें रोजमर्रा की सलाह, नैतिक दुविधाएं और यहां तक कि हानिकारक स्थितियां भी शामिल हैं। उन्होंने पाया कि ये एआई सिस्टम इंसानों की तुलना में औसतन 49 प्रतिशत अधिक बार उपयोगकर्ताओं के कार्यों की पुष्टि करते हैं। और, कुछ मामलों में, परिणाम अधिक चौंकाने वाले थे।
उदाहरण के लिए, Reddit-शैली की नैतिक दुविधाओं (जैसे ‘क्या मैं *** छेद हूं?’ पोस्ट) पर, AI उन 51 प्रतिशत मामलों में उपयोगकर्ताओं से सहमत था जहां मनुष्य असहमत थे। दूसरी ओर, जब उपयोगकर्ताओं ने झूठ बोलने या नुकसान पहुंचाने सहित हानिकारक और अनैतिक कार्यों का वर्णन किया, तो एआई सिस्टम ने इन्हें मान्य करने की प्रवृत्ति दिखाई। यह दर्शाता है कि एआई सिर्फ विनम्र नहीं है; यह अक्सर उपयोगकर्ताओं का समर्थन करता है जबकि इसे नहीं करना चाहिए।
अनुसंधान के भाग के रूप में, न केवल एआई व्यवहार का अध्ययन किया गया; उन्होंने यह भी विश्लेषण किया कि यह लोगों को कैसे प्रभावित करता है। उन प्रयोगों में, जिनमें 2,405 प्रतिभागी शामिल थे, उपयोगकर्ताओं ने चापलूस एआई या अधिक संतुलित एआई के साथ बातचीत की, जिसने महत्वपूर्ण प्रतिक्रिया दी। नतीजों से पता चला कि जिन लोगों ने चापलूस एआई के साथ बातचीत की, वे अधिक आश्वस्त हो गए कि वे सही थे, और वे माफी मांगने या अपने रिश्तों को सुधारने के लिए कम इच्छुक थे। अध्ययन के मुताबिक, एक बातचीत भी उनकी सोच को प्रभावित करने के लिए काफी थी।
इस विज्ञापन के नीचे कहानी जारी है
अध्ययन में प्रतिभागियों को वास्तविक जीवन के संघर्षों पर चर्चा करने की भी आवश्यकता थी। निष्कर्षों से पता चला कि जिन लोगों को मान्य प्रतिक्रियाएँ मिलीं, उनके जिम्मेदारी लेने या स्थिति को ठीक करने का प्रयास करने की संभावना काफी कम थी।
नकारात्मक प्रभावों के बावजूद, प्रतिभागियों ने वास्तव में चापलूस आईए को प्राथमिकता दी। उन्होंने प्रतिक्रियाओं को उच्च गुणवत्ता, अधिक भरोसेमंद और अधिक संतोषजनक बताया। सकारात्मक प्रतिक्रियाएं मिलने के बाद इन उत्तरदाताओं द्वारा एआई का दोबारा उपयोग करने की भी अधिक संभावना थी। शोधकर्ताओं के अनुसार, यह कुछ ऐसा बनाता है जिसे वे ‘विकृत प्रोत्साहन’ के रूप में वर्णित करते हैं: वही व्यवहार जो उपयोगकर्ताओं को नुकसान पहुंचाता है वही उन्हें व्यस्त रखता है।
यह क्यों मायने रखता है?
यह अध्ययन एक गहरे मनोवैज्ञानिक मुद्दे को रेखांकित करता है। लोग स्वाभाविक रूप से मान्य होना पसंद करते हैं, क्योंकि यह उनकी आत्म-छवि को मजबूत करता है और असुविधा को कम करता है। और चाटुकार AI सीधे तौर पर इस प्रवृत्ति का लाभ उठाता है। दूसरी ओर, यह एक लागत के साथ आता है। एक एआई जो किसी उपयोगकर्ता से अत्यधिक सहमत होता है, पक्षपाती या गलत मान्यताओं को पुष्ट करता है, आत्म-प्रतिबिंब को कम करता है, जवाबदेही को कमजोर करता है, और विरोधी दृष्टिकोणों के संपर्क को सीमित करता है।
शोधकर्ताओं ने यह भी पाया कि चाटुकारितापूर्ण प्रतिक्रियाएं अक्सर दूसरों के दृष्टिकोण को नजरअंदाज कर देती हैं, जिससे उपयोगकर्ता खुद पर अधिक ध्यान केंद्रित करते हैं और दूसरों के प्रति कम सहानुभूति रखते हैं।
इसके विपरीत, इसके AI को जानने से भी मदद नहीं मिलती है। एक और आश्चर्यजनक खोज यह है कि प्रभाव तब भी बना रहता है जब उपयोगकर्ताओं को पता होता है कि वे एआई से बात कर रहे हैं। प्रतिभागी चाटुकारितापूर्ण प्रतिक्रियाओं से प्रभावित होते रहे, भले ही उन्हें विश्वास हो कि सलाह किसी इंसान से आई है या मशीन से। इससे पता चलता है कि केवल AI सामग्री को लेबल करना इसके प्रभाव को कम करने के लिए पर्याप्त नहीं हो सकता है।
इस विज्ञापन के नीचे कहानी जारी है
इसका समाज पर क्या प्रभाव पड़ेगा?
शोधकर्ताओं का तर्क है कि चाटुकारिता एआई कोई मामूली डिज़ाइन दोष नहीं है बल्कि एक व्यापक सामाजिक चिंता है। चूँकि ये प्रणालियाँ व्यापक रूप से सुलभ हैं और अक्सर सलाह लेने के लिए उपयोग की जाती हैं, इसलिए उनका प्रभाव तेजी से बढ़ सकता है। जब इस दृष्टिकोण के साथ जोड़ा जाता है कि कंपनियां जुड़ाव और उपयोगकर्ता संतुष्टि को प्राथमिकता दे सकती हैं, तो इस व्यवहार को सीमित करने के लिए बहुत कम प्रोत्साहन मिलता है।
हालाँकि, शोधकर्ता कई समाधान भी सुझाते हैं जिनमें एआई सिस्टम डिजाइन करना शामिल है जो केवल तत्काल संतुष्टि नहीं, बल्कि दीर्घकालिक उपयोगकर्ता कल्याण को प्राथमिकता देता है। चाटुकारिता जैसे हानिकारक व्यवहारों का आकलन करने के लिए मूल्यांकन उपकरण विकसित करना। जवाबदेही और नियामक ढांचे का परिचय देना और उपयोगकर्ताओं को एआई की सीमाओं और पूर्वाग्रहों के बारे में शिक्षित करना।
वे एआई की आवश्यकता पर भी जोर देते हैं जो उपयोगकर्ताओं को हर बात पर उनसे सहमत होने के बजाय रचनात्मक रूप से चुनौती देता है।
