स्वास्थ्य संबंधी सलाह के लिए एआई चैटबॉट से पूछने से पहले क्या जानना चाहिए?

सलाह के लिए लाखों लोगों के चैटबॉट्स की ओर रुख करने के साथ, तकनीकी कंपनियों द्वारा विशेष रूप से स्वास्थ्य संबंधी सवालों के जवाब देने के लिए डिज़ाइन किए गए कार्यक्रमों की पेशकश शुरू करने से पहले यह केवल समय की बात थी।

जनवरी में, OpenAI ने अपने चैटबॉट का एक नया संस्करण ChatGPT हेल्थ पेश किया, जिसके बारे में कंपनी का कहना है कि यह स्वास्थ्य और चिकित्सा संबंधी सवालों के जवाब देने के लिए उपयोगकर्ताओं के मेडिकल रिकॉर्ड, वेलनेस ऐप्स और पहनने योग्य डिवाइस डेटा का विश्लेषण कर सकता है। वर्तमान में, कार्यक्रमों के लिए प्रतीक्षा सूची है। एंथ्रोपिक, एक प्रतिद्वंद्वी एआई कंपनी, अपने क्लाउड चैटबॉट के कुछ उपयोगकर्ताओं के लिए समान सुविधाएँ प्रदान करती है।

दोनों कंपनियों का कहना है कि उनके कार्यक्रम, जिन्हें बड़े भाषा मॉडल के रूप में जाना जाता है, पेशेवर देखभाल का विकल्प नहीं हैं और उनका उपयोग चिकित्सा स्थितियों के निदान के लिए नहीं किया जाना चाहिए। इसके बजाय, वे कहते हैं कि चैटबॉट जटिल परीक्षण परिणामों को सारांशित और समझा सकते हैं, डॉक्टर की यात्रा की तैयारी में मदद कर सकते हैं या मेडिकल रिकॉर्ड और ऐप मेट्रिक्स में छिपे महत्वपूर्ण स्वास्थ्य रुझानों का विश्लेषण कर सकते हैं।

अपने स्वास्थ्य के बारे में चैटबॉट से बात करने से पहले विचार करने योग्य कुछ बातें यहां दी गई हैं:

कुछ डॉक्टर और शोधकर्ता जिन्होंने चैटजीपीटी हेल्थ और इसी तरह के कार्यक्रमों के साथ काम किया है, उन्हें यथास्थिति में सुधार के रूप में देखते हैं।

एआई प्लेटफ़ॉर्म सही नहीं हैं – वे कभी-कभी मतिभ्रम कर सकते हैं या बुरी सलाह दे सकते हैं – लेकिन वे जो जानकारी उत्पन्न करते हैं वह Google खोज के माध्यम से रोगियों को मिलने वाली जानकारी की तुलना में वैयक्तिकृत और विशिष्ट होने की अधिक संभावना है।

कैलिफ़ोर्निया विश्वविद्यालय, सैन फ़्रांसिस्को के चिकित्सा प्रौद्योगिकी विशेषज्ञ डॉ. रॉबर्ट वाचर ने कहा, “अक्सर विकल्प कुछ भी नहीं होता है, या मरीज़ इसकी परवाह नहीं करता है।” “और इसलिए मुझे लगता है कि यदि आप इन उपकरणों का जिम्मेदारी से उपयोग करते हैं, तो मुझे लगता है कि आप उपयोगी जानकारी प्राप्त कर सकते हैं।”

नवीनतम चैटबॉट्स का एक फायदा यह है कि वे उपयोगकर्ताओं के सवालों का जवाब उनके मेडिकल इतिहास के संदर्भ में देते हैं, जिसमें नुस्खे, उम्र और डॉक्टर के नोट्स शामिल हैं।

भले ही आपने एआई को अपनी चिकित्सा जानकारी तक पहुंच नहीं दी है, वाचर और अन्य लोग प्रतिक्रियाओं को बेहतर बनाने के लिए चैटबॉट्स को यथासंभव अधिक विवरण देने की सलाह देते हैं।

वाचर और अन्य लोग इस बात पर जोर देते हैं कि ऐसी स्थितियाँ होती हैं जब लोगों को चैटबॉट को छोड़ देना चाहिए और तत्काल चिकित्सा सहायता लेनी चाहिए। सांस की तकलीफ, सीने में दर्द या गंभीर सिरदर्द जैसे लक्षण एक चिकित्सा आपातकाल का संकेत दे सकते हैं।

स्टैनफोर्ड यूनिवर्सिटी के डॉ. लॉयड माइनर ने कहा, कम जरूरी स्थितियों के दौरान भी, मरीजों और डॉक्टरों को एआई कार्यक्रमों को “कुछ हद तक स्वस्थ संदेह” के साथ देखना चाहिए।

स्टैनफोर्ड के मेडिकल स्कूल के डीन माइनर ने कहा, “यदि आप एक बड़े चिकित्सा निर्णय के बारे में बात कर रहे हैं, या अपने स्वास्थ्य के बारे में एक छोटे निर्णय के बारे में भी बात कर रहे हैं, तो आपको कभी भी केवल उस पर निर्भर नहीं रहना चाहिए जो आप एक बड़े भाषा मॉडल से प्राप्त कर रहे हैं।”

एआई बॉट्स द्वारा दिए जाने वाले कई लाभ उपयोगकर्ताओं द्वारा व्यक्तिगत चिकित्सा जानकारी साझा करने से प्राप्त होते हैं। लेकिन यह समझना महत्वपूर्ण है कि एआई कंपनी के साथ साझा की गई कोई भी चीज़ संघीय गोपनीयता कानून द्वारा संरक्षित नहीं है जो आम तौर पर संवेदनशील चिकित्सा जानकारी को नियंत्रित करती है।

आमतौर पर HIPAA के रूप में जाना जाने वाला यह कानून मेडिकल रिकॉर्ड का खुलासा करने वाले डॉक्टरों, अस्पतालों, बीमाकर्ताओं या अन्य स्वास्थ्य सेवाओं के लिए जुर्माना और यहां तक ​​कि जेल की सजा की भी अनुमति देता है। लेकिन यह कानून उन कंपनियों पर लागू नहीं होता जो चैटबॉट डिज़ाइन करती हैं।

माइनर ने कहा, “जब कोई अपने मेडिकल चार्ट को एक बड़े भाषा मॉडल में अपलोड कर रहा है, तो यह इसे किसी नए डॉक्टर को सौंपने से बहुत अलग है।” “उपभोक्ताओं को यह समझने की आवश्यकता है कि वे पूरी तरह से अलग गोपनीयता मानक हैं।”

ओपनएआई और एंथ्रोपिक दोनों का कहना है कि उपयोगकर्ताओं की स्वास्थ्य जानकारी को अन्य प्रकार के डेटा से अलग रखा जाता है और यह अतिरिक्त गोपनीयता सुरक्षा के अधीन है। कंपनियां अपने मॉडलों को प्रशिक्षित करने के लिए स्वास्थ्य डेटा का उपयोग नहीं करती हैं। उपयोगकर्ताओं को अपनी जानकारी साझा करने का विकल्प चुनना होगा और वे किसी भी समय डिस्कनेक्ट कर सकते हैं।

एआई को लेकर उत्साह के बावजूद, प्रौद्योगिकी का स्वतंत्र परीक्षण अपनी प्रारंभिक अवस्था में है। प्रारंभिक अध्ययनों से पता चलता है कि चैटजीपीटी जैसे कार्यक्रम उच्च-स्तरीय चिकित्सा परीक्षाओं में सफल हो सकते हैं लेकिन मनुष्यों के साथ बातचीत करते समय अक्सर विफल हो जाते हैं।

हाल ही में ऑक्सफोर्ड विश्वविद्यालय द्वारा 1,300-प्रतिभागियों के एक अध्ययन में पाया गया कि काल्पनिक स्वास्थ्य स्थितियों पर शोध करने के लिए एआई चैटबॉट का उपयोग करने वाले लोग ऑनलाइन खोज या व्यक्तिगत निर्णय का उपयोग करने वाले लोगों की तुलना में बेहतर निर्णय नहीं ले पाए।

व्यापक, लिखित रूप में चिकित्सा परिदृश्य प्रस्तुत करने वाले एआई चैटबॉट्स ने 95% मामलों में अंतर्निहित स्थिति की सही पहचान की।

ऑक्सफोर्ड इंटरनेट इंस्टीट्यूट के मुख्य लेखक एडम महदी ने कहा, “यह समस्या नहीं थी।” “वह स्थान जहां चीजें बिखर गईं वह वास्तविक प्रतिभागियों के साथ बातचीत के दौरान थी।”

महदी और उनकी टीम को कई संचार समस्याएं मिलीं। लोग अक्सर चैटबॉट्स को स्वास्थ्य समस्या की सही पहचान करने के लिए आवश्यक जानकारी नहीं देते थे। इसके विपरीत, एआई सिस्टम अक्सर अच्छी और बुरी जानकारी के संयोजन के साथ प्रतिक्रिया करते थे, और उपयोगकर्ताओं को दोनों के बीच अंतर करने में परेशानी होती थी।

2024 में किए गए अध्ययन में चैटजीपीटी हेल्थ जैसी नई पेशकश सहित नवीनतम चैटबॉट संस्करणों का उपयोग नहीं किया गया।

चैटबॉट्स के लिए अनुवर्ती प्रश्न पूछने और उपयोगकर्ताओं से मुख्य विवरण प्राप्त करने की क्षमता एक ऐसा क्षेत्र है जहां वाचर सुधार की गुंजाइश देखता है।

वाचर ने कहा, “मुझे लगता है कि यह तभी होगा जब यह वास्तव में अच्छा हो जाएगा, जब उपकरण आगे और पीछे जाने के तरीके में थोड़ा अधिक डॉक्टर-जैसे हो जाएंगे”, वाचर ने कहा।

अभी के लिए, आपको जो जानकारी मिल रही है उसके बारे में अधिक आश्वस्त महसूस करने का एक तरीका कई चैटबॉट्स से परामर्श करना है – किसी अन्य डॉक्टर से दूसरी राय लेने के समान।

वाचर ने Google के AI टूल का संदर्भ देते हुए कहा, “मैं कभी-कभी चैटजीपीटी में जानकारी और जेमिनी में जानकारी डालूंगा।” “और जब वे दोनों सहमत होते हैं, तो मुझे थोड़ा अधिक सुरक्षित महसूस होता है कि यही सही उत्तर है।”

प्रकाशित – 03 मार्च, 2026 01:21 अपराह्न IST