लाखों लोग सलाह के लिए चैटबॉट्स की ओर रुख कर रहे हैं, यह केवल समय की बात है जब तकनीकी कंपनियों ने विशेष रूप से स्वास्थ्य संबंधी सवालों के जवाब देने के लिए डिज़ाइन किए गए कार्यक्रमों की पेशकश शुरू कर दी है।
जनवरी में, OpenAI ने अपने चैटबॉट का एक नया संस्करण ChatGPT हेल्थ पेश किया, जिसके बारे में कंपनी का कहना है कि यह स्वास्थ्य और चिकित्सा संबंधी सवालों के जवाब देने के लिए उपयोगकर्ताओं के मेडिकल रिकॉर्ड, वेलनेस ऐप्स और पहनने योग्य डिवाइस डेटा का विश्लेषण कर सकता है। वर्तमान में, कार्यक्रम के लिए प्रतीक्षा सूची है। एंथ्रोपिक, एक प्रतिद्वंद्वी एआई कंपनी, अपने क्लाउड चैटबॉट के कुछ उपयोगकर्ताओं के लिए समान सुविधाएँ प्रदान करती है।
दोनों कंपनियों का कहना है कि उनके कार्यक्रम, जिन्हें बड़े भाषा मॉडल के रूप में जाना जाता है, पेशेवर देखभाल का विकल्प नहीं हैं और उनका उपयोग चिकित्सा स्थितियों के निदान के लिए नहीं किया जाना चाहिए। इसके बजाय, वे कहते हैं कि चैटबॉट जटिल परीक्षण परिणामों को सारांशित और समझा सकते हैं, डॉक्टर की यात्रा की तैयारी में मदद कर सकते हैं या मेडिकल रिकॉर्ड और ऐप मेट्रिक्स में छिपे महत्वपूर्ण स्वास्थ्य रुझानों का विश्लेषण कर सकते हैं।
अपने स्वास्थ्य के बारे में चैटबॉट से बात करने से पहले विचार करने योग्य कुछ बातें यहां दी गई हैं:
चैटबॉट Google खोज की तुलना में अधिक वैयक्तिकृत जानकारी प्रदान कर सकते हैं
कुछ डॉक्टर और शोधकर्ता जिन्होंने चैटजीपीटी हेल्थ और इसी तरह के कार्यक्रमों के साथ काम किया है, उन्हें यथास्थिति में सुधार के रूप में देखते हैं।
एआई प्लेटफ़ॉर्म सही नहीं हैं – वे कभी-कभी मतिभ्रम कर सकते हैं या बुरी सलाह दे सकते हैं – लेकिन वे जो जानकारी उत्पन्न करते हैं वह Google खोज के माध्यम से रोगियों को मिलने वाली जानकारी की तुलना में वैयक्तिकृत और विशिष्ट होने की अधिक संभावना है।
कैलिफ़ोर्निया विश्वविद्यालय, सैन फ़्रांसिस्को के चिकित्सा प्रौद्योगिकी विशेषज्ञ डॉ. रॉबर्ट वाचर ने कहा, “अक्सर विकल्प कुछ भी नहीं होता है, या मरीज़ इसकी परवाह नहीं करता है।” “और इसलिए मुझे लगता है कि यदि आप इन उपकरणों का जिम्मेदारी से उपयोग करते हैं, तो मुझे लगता है कि आप उपयोगी जानकारी प्राप्त कर सकते हैं।”
इस विज्ञापन के नीचे कहानी जारी है
नवीनतम चैटबॉट्स का एक फायदा यह है कि वे उपयोगकर्ताओं के सवालों का जवाब उनके मेडिकल इतिहास के संदर्भ में देते हैं, जिसमें नुस्खे, उम्र और डॉक्टर के नोट्स शामिल हैं।
भले ही आपने एआई को अपनी चिकित्सा जानकारी तक पहुंच नहीं दी है, वाचर और अन्य लोग प्रतिक्रियाओं को बेहतर बनाने के लिए चैटबॉट्स को यथासंभव अधिक विवरण देने की सलाह देते हैं।
यदि आपमें चिंताजनक लक्षण हैं, तो एआई को छोड़ दें
वाचर और अन्य लोग इस बात पर जोर देते हैं कि ऐसी स्थितियाँ होती हैं जब लोगों को चैटबॉट को छोड़ देना चाहिए और तत्काल चिकित्सा सहायता लेनी चाहिए। सांस की तकलीफ, सीने में दर्द या गंभीर सिरदर्द जैसे लक्षण एक चिकित्सा आपातकाल का संकेत दे सकते हैं।
स्टैनफोर्ड यूनिवर्सिटी के डॉ. लॉयड माइनर ने कहा, कम जरूरी स्थितियों के दौरान भी, मरीजों और डॉक्टरों को एआई कार्यक्रमों को “कुछ हद तक स्वस्थ संदेह” के साथ देखना चाहिए।
इस विज्ञापन के नीचे कहानी जारी है
स्टैनफोर्ड के मेडिकल स्कूल के डीन माइनर ने कहा, “यदि आप एक बड़े चिकित्सा निर्णय के बारे में बात कर रहे हैं, या अपने स्वास्थ्य के बारे में एक छोटे निर्णय के बारे में भी बात कर रहे हैं, तो आपको कभी भी केवल उस पर निर्भर नहीं रहना चाहिए जो आप एक बड़े भाषा मॉडल से प्राप्त कर रहे हैं।”
कोई भी स्वास्थ्य डेटा अपलोड करने से पहले अपनी गोपनीयता पर विचार करें
एआई बॉट्स द्वारा दिए जाने वाले कई लाभ उपयोगकर्ताओं द्वारा व्यक्तिगत चिकित्सा जानकारी साझा करने से प्राप्त होते हैं। लेकिन यह समझना महत्वपूर्ण है कि एआई कंपनी के साथ साझा की गई कोई भी चीज़ संघीय गोपनीयता कानून द्वारा संरक्षित नहीं है जो आम तौर पर संवेदनशील चिकित्सा जानकारी को नियंत्रित करती है।
आमतौर पर HIPAA के रूप में जाना जाने वाला यह कानून मेडिकल रिकॉर्ड का खुलासा करने वाले डॉक्टरों, अस्पतालों, बीमाकर्ताओं या अन्य स्वास्थ्य सेवाओं के लिए जुर्माना और यहां तक कि जेल की सजा की भी अनुमति देता है। लेकिन यह कानून उन कंपनियों पर लागू नहीं होता जो चैटबॉट डिज़ाइन करती हैं।
माइनर ने कहा, “जब कोई अपने मेडिकल चार्ट को एक बड़े भाषा मॉडल में अपलोड कर रहा है, तो यह इसे किसी नए डॉक्टर को सौंपने से बहुत अलग है।” “उपभोक्ताओं को यह समझने की आवश्यकता है कि वे पूरी तरह से अलग गोपनीयता मानक हैं।”
इस विज्ञापन के नीचे कहानी जारी है
ओपनएआई और एंथ्रोपिक दोनों का कहना है कि उपयोगकर्ताओं की स्वास्थ्य जानकारी को अन्य प्रकार के डेटा से अलग रखा जाता है और यह अतिरिक्त गोपनीयता सुरक्षा के अधीन है। कंपनियां अपने मॉडलों को प्रशिक्षित करने के लिए स्वास्थ्य डेटा का उपयोग नहीं करती हैं। उपयोगकर्ताओं को अपनी जानकारी साझा करने का विकल्प चुनना होगा और वे किसी भी समय डिस्कनेक्ट कर सकते हैं।
परीक्षण से पता चलता है कि चैटबॉट लड़खड़ा सकते हैं
एआई को लेकर उत्साह के बावजूद, प्रौद्योगिकी का स्वतंत्र परीक्षण अपनी प्रारंभिक अवस्था में है। प्रारंभिक अध्ययनों से पता चलता है कि चैटजीपीटी जैसे कार्यक्रम उच्च-स्तरीय चिकित्सा परीक्षाओं में सफल हो सकते हैं लेकिन मनुष्यों के साथ बातचीत करते समय अक्सर विफल हो जाते हैं।
हाल ही में ऑक्सफोर्ड विश्वविद्यालय द्वारा 1,300-प्रतिभागियों के एक अध्ययन में पाया गया कि काल्पनिक स्वास्थ्य स्थितियों पर शोध करने के लिए एआई चैटबॉट का उपयोग करने वाले लोग ऑनलाइन खोज या व्यक्तिगत निर्णय का उपयोग करने वाले लोगों की तुलना में बेहतर निर्णय नहीं ले पाए।
व्यापक, लिखित रूप में चिकित्सा परिदृश्य प्रस्तुत करने वाले एआई चैटबॉट्स ने 95% मामलों में अंतर्निहित स्थिति की सही पहचान की।
इस विज्ञापन के नीचे कहानी जारी है
ऑक्सफोर्ड इंटरनेट इंस्टीट्यूट के मुख्य लेखक एडम महदी ने कहा, “यह समस्या नहीं थी।” “वह स्थान जहां चीजें बिखर गईं वह वास्तविक प्रतिभागियों के साथ बातचीत के दौरान थी।”
महदी और उनकी टीम को कई संचार समस्याएं मिलीं। लोग अक्सर चैटबॉट्स को स्वास्थ्य समस्या की सही पहचान करने के लिए आवश्यक जानकारी नहीं देते थे। इसके विपरीत, एआई सिस्टम अक्सर अच्छी और बुरी जानकारी के संयोजन के साथ प्रतिक्रिया करते थे, और उपयोगकर्ताओं को दोनों के बीच अंतर करने में परेशानी होती थी।
2024 में किए गए अध्ययन में चैटजीपीटी हेल्थ जैसी नई पेशकश सहित नवीनतम चैटबॉट संस्करणों का उपयोग नहीं किया गया।
एक दूसरी एआई राय मददगार हो सकती है
चैटबॉट्स के लिए अनुवर्ती प्रश्न पूछने और उपयोगकर्ताओं से मुख्य विवरण प्राप्त करने की क्षमता एक ऐसा क्षेत्र है जहां वाचर सुधार की गुंजाइश देखता है।
इस विज्ञापन के नीचे कहानी जारी है
वाचर ने कहा, “मुझे लगता है कि यह तभी होगा जब यह वास्तव में अच्छा हो जाएगा, जब उपकरण आगे और पीछे जाने के तरीके में थोड़ा अधिक डॉक्टर-जैसे हो जाएंगे”, वाचर ने कहा।
अभी के लिए, आपको जो जानकारी मिल रही है उसके बारे में अधिक आश्वस्त महसूस करने का एक तरीका कई चैटबॉट्स से परामर्श करना है – किसी अन्य डॉक्टर से दूसरी राय लेने के समान।
वाचर ने Google के AI टूल का संदर्भ देते हुए कहा, “मैं कभी-कभी चैटजीपीटी में जानकारी और जेमिनी में जानकारी डालूंगा।” “और जब वे दोनों सहमत होते हैं, तो मुझे थोड़ा अधिक सुरक्षित महसूस होता है कि यही सही उत्तर है।”
यह लेख मैथ्यू पेरोन द्वारा लिखा गया था और 2 मार्च, 2026 को एसोसिएटेड प्रेस स्वास्थ्य और विज्ञान विभाग द्वारा प्रकाशित किया गया था।