Site icon

एआई की त्रुटियों को ख़त्म करना असंभव हो सकता है – स्वास्थ्य देखभाल में इसके उपयोग का क्या मतलब है

पिछले दशक में, AI को सफलता मिली है अनियंत्रित उत्साह और साहसिक दावे – भले ही उपयोगकर्ता बार-बार त्रुटियों का अनुभव करते हैं वह AI बनाता है। एक एआई-संचालित डिजिटल सहायक किसी के भाषण को शर्मनाक तरीके से गलत समझ सकता है, एक चैटबॉट तथ्यों को भ्रमित कर सकता है, या, जैसा कि मैंने अनुभव किया है, एक एआई-आधारित नेविगेशन उपकरण मकई के खेत के माध्यम से ड्राइवरों का मार्गदर्शन भी कर सकता है – यह सब त्रुटियों को दर्ज किए बिना।

लोग इन गलतियों को सहन कर लेते हैं क्योंकि तकनीक कुछ कार्यों को अधिक कुशल बना देती है। हालाँकि, समर्थक तेजी से एआई के उपयोग की वकालत कर रहे हैं – कभी-कभी सीमित मानव पर्यवेक्षण के साथ – उन क्षेत्रों में जहां गलतियों की उच्च लागत होती है, जैसे स्वास्थ्य देखभाल। उदाहरण के लिए, ए बिल 2025 की शुरुआत में अमेरिकी प्रतिनिधि सभा में पेश किया गया चाहेंगे एआई सिस्टम को स्वायत्त रूप से दवाएं लिखने की अनुमति दें. तब से स्वास्थ्य शोधकर्ता और कानून निर्माता बहस की है क्या ऐसा निर्धारित करना व्यवहार्य या उचित होगा।

यदि यह या इसी तरह का कोई कानून पारित हो जाता है तो इस तरह का निर्धारण वास्तव में कैसे काम करेगा, यह देखा जाना बाकी है। लेकिन यह इस बात पर सवाल उठाता है कि एआई डेवलपर्स अपने टूल को कितनी गलतियाँ करने की अनुमति दे सकते हैं और यदि उन टूल के नकारात्मक परिणाम होते हैं – यहां तक ​​कि रोगी की मृत्यु भी हो जाती है तो परिणाम क्या होंगे।

के तौर पर शोधकर्ता जटिल प्रणालियों का अध्ययन कर रहे हैंमैं जांच करता हूं किसी सिस्टम के विभिन्न घटक कैसे परस्पर क्रिया करते हैं अप्रत्याशित परिणाम उत्पन्न करने के लिए. मेरे काम का एक हिस्सा विज्ञान की सीमाओं की खोज पर केंद्रित है – और, विशेष रूप से, एआई की।

पिछले 25 वर्षों में मैंने कई परियोजनाओं पर काम किया है यातायात प्रकाश समन्वय, नौकरशाही में सुधार और कर चोरी का पता लगाना. भले ही ये प्रणालियाँ अत्यधिक प्रभावी हो सकती हैं, फिर भी वे कभी भी परिपूर्ण नहीं होती हैं।

विशेष रूप से AI के लिए, त्रुटियाँ अपरिहार्य हो सकती हैं सिस्टम कैसे काम करता है इसका परिणाम. मेरी प्रयोगशाला के शोध से पता चलता है कि एआई मॉडल को प्रशिक्षित करने के लिए डेटा के विशेष गुणों का उपयोग किया जाता है भूमिका निभाओ. इसमें बदलाव की संभावना नहीं है, भले ही शोधकर्ता एआई मॉडल को बेहतर बनाने के लिए कितना भी समय, प्रयास और फंडिंग करें।

कोई भी – और कुछ भी नहीं, यहां तक ​​कि एआई भी – पूर्ण नहीं है

जैसा कि कंप्यूटर विज्ञान के जनक माने जाने वाले एलन ट्यूरिंग ने एक बार कहा था: “अगर किसी मशीन से अचूक होने की उम्मीद की जाती है, तो वह बुद्धिमान भी नहीं हो सकती।” ऐसा इसलिए है क्योंकि सीखना बुद्धिमत्ता का एक अनिवार्य हिस्सा है और लोग आमतौर पर गलतियों से सीखते हैं। मैं अपने शोध में बुद्धिमत्ता और अचूकता के बीच इस रस्साकशी को देखता हूं।

जुलाई 2025 में प्रकाशित एक अध्ययन में, मैंने और मेरे सहकर्मियों ने दिखाया कि कुछ डेटासेट को स्पष्ट श्रेणियों में पूरी तरह व्यवस्थित किया गया है असंभव हो सकता है. दूसरे शब्दों में, किसी दिए गए डेटासेट में न्यूनतम मात्रा में त्रुटियां हो सकती हैं, केवल इस तथ्य के कारण कि कई श्रेणियों के तत्व ओवरलैप होते हैं। कुछ डेटासेट के लिए – कई एआई सिस्टम का मुख्य आधार – एआई संयोग से बेहतर प्रदर्शन नहीं करेगा।

उदाहरण के लिए, लाखों कुत्तों के डेटासेट पर प्रशिक्षित एक मॉडल जो केवल उनकी उम्र, वजन और ऊंचाई को लॉग करता है, संभवतः अंतर करेगा चिहुआहुआस से ग्रेट डेन पूर्ण सटीकता के साथ. लेकिन इसे अलग बताने में गलती हो सकती है अलास्का मालाम्यूट और ए डोबर्मन पिंसरक्योंकि अलग-अलग प्रजातियों के अलग-अलग व्यक्ति एक ही उम्र, वजन और ऊंचाई सीमा में आ सकते हैं।

इस वर्गीकरण को वर्गीकरणशीलता कहा जाता है, और मैंने और मेरे छात्रों ने 2021 में इसका अध्ययन करना शुरू किया। 2008 और 2020 के बीच यूनिवर्सिडैड नैशनल ऑटोनोमा डी मेक्सिको में भाग लेने वाले आधे मिलियन से अधिक छात्रों के डेटा का उपयोग करके, हम एक सरल प्रतीत होने वाली समस्या को हल करना चाहते थे। क्या हम यह अनुमान लगाने के लिए एआई एल्गोरिदम का उपयोग कर सकते हैं कि कौन से छात्र अपनी विश्वविद्यालय की डिग्री समय पर पूरी करेंगे – यानी, प्रमुख के आधार पर, अपनी पढ़ाई शुरू करने के तीन, चार या पांच साल के भीतर?

हमने एआई में वर्गीकरण के लिए उपयोग किए जाने वाले कई लोकप्रिय एल्गोरिदम का परीक्षण किया और अपना स्वयं का एल्गोरिदम भी विकसित किया। कोई भी एल्गोरिदम पूर्ण नहीं था; सबसे अच्छे − यहां तक ​​कि एक भी जिसे हमने विशेष रूप से इस कार्य के लिए विकसित किया है – लगभग 80% की सटीकता दर हासिल की, जिसका अर्थ है कि कम से कम 5 में से 1 छात्र को गलत वर्गीकृत किया गया था। हमने महसूस किया कि कई छात्र ग्रेड, आयु, लिंग, सामाजिक आर्थिक स्थिति और अन्य विशेषताओं के मामले में समान थे – फिर भी कुछ समय पर समाप्त हो जाएंगे, और कुछ नहीं। इन परिस्थितियों में, कोई भी एल्गोरिदम सटीक भविष्यवाणी करने में सक्षम नहीं होगा।

आप सोच सकते हैं कि अधिक डेटा से पूर्वानुमान में सुधार होगा, लेकिन यह आमतौर पर घटते रिटर्न के साथ आता है। इसका मतलब यह है कि, उदाहरण के लिए, 1% की सटीकता में प्रत्येक वृद्धि के लिए, आपको 100 गुना डेटा की आवश्यकता हो सकती है। इस प्रकार, हमारे मॉडल के प्रदर्शन में उल्लेखनीय सुधार करने के लिए हमारे पास कभी भी पर्याप्त छात्र नहीं होंगे।

इसके अतिरिक्त, छात्रों और उनके परिवारों के जीवन में कई अप्रत्याशित मोड़ – बेरोजगारी, मृत्यु, गर्भावस्था – विश्वविद्यालय में उनके पहले वर्ष के बाद घटित हो सकते हैं, जिससे यह प्रभावित हो सकता है कि वे समय पर समाप्त करेंगे या नहीं। इसलिए छात्रों की अनंत संख्या होने पर भी, हमारी भविष्यवाणियाँ अभी भी त्रुटियाँ देंगी।

भविष्यवाणी की सीमा

इसे अधिक सामान्यतः कहें तो, भविष्यवाणी को जो सीमित करता है वह जटिलता है. जटिलता शब्द लैटिन प्लेक्सस से आया है, जिसका अर्थ है आपस में जुड़ा हुआ। एक जटिल प्रणाली बनाने वाले घटक आपस में जुड़े हुए हैं, और यही है उनके बीच बातचीत यह निर्धारित करता है कि उनके साथ क्या होता है और वे कैसा व्यवहार करते हैं।

इस प्रकार, सिस्टम के तत्वों का अलगाव में अध्ययन करने से संभवतः उनके बारे में भ्रामक अंतर्दृष्टि प्राप्त होगी – साथ ही संपूर्ण सिस्टम के बारे में भी।

उदाहरण के लिए, किसी शहर में यात्रा कर रही एक कार को लीजिए। यह जिस गति से चलता है, उसे जानकर सैद्धांतिक रूप से यह अनुमान लगाना संभव है कि किसी विशेष समय पर यह कहाँ समाप्त होगा। लेकिन वास्तविक यातायात में, इसकी गति सड़क पर अन्य वाहनों के साथ बातचीत पर निर्भर करेगी। चूँकि इन अंतःक्रियाओं का विवरण क्षण भर में सामने आ जाता है और पहले से ज्ञात नहीं किया जा सकता है, भविष्य में कार के साथ क्या होगा इसकी सटीक भविष्यवाणी करना केवल कुछ ही मिनटों में संभव है।

मेरे स्वास्थ्य के साथ नहीं

यही सिद्धांत दवाएं लिखने पर भी लागू होते हैं। विभिन्न स्थितियों और बीमारियों के लक्षण एक जैसे हो सकते हैं और एक ही स्थिति या बीमारी वाले लोगों में अलग-अलग लक्षण दिखाई दे सकते हैं। उदाहरण के लिए, बुखार श्वसन संबंधी बीमारी या पाचन संबंधी बीमारी के कारण हो सकता है। और सर्दी से खांसी हो सकती है, लेकिन हमेशा नहीं।

इसका मतलब यह है कि स्वास्थ्य देखभाल डेटासेट में महत्वपूर्ण ओवरलैप्स हैं जो एआई को त्रुटि-मुक्त होने से रोकेंगे।

निःसंदेह, मनुष्य भी गलतियाँ करते हैं। लेकिन जब एआई किसी मरीज का गलत निदान करता है, तो निश्चित रूप से स्थिति खराब हो जाती है कानूनी पचड़े में पड़ जाता है. यह स्पष्ट नहीं है कि यदि किसी मरीज को चोट लगी तो कौन या कौन जिम्मेदार होगा। दवा कंपनियाँ? सॉफ़्टवेयर डेवलपर? बीमा एजेंसियाँ? फार्मेसियाँ?

कई संदर्भों में, न तो मनुष्य और न ही मशीनें किसी दिए गए कार्य के लिए सर्वोत्तम विकल्प हैं। “सेंटॉर्स” या “हाइब्रिड इंटेलिजेंस” – अर्थात, मनुष्यों और मशीनों का एक संयोजन – वे अपने आप में प्रत्येक से बेहतर होते हैं. एक डॉक्टर निश्चित रूप से विभिन्न रोगियों के लिए उपयोग की जाने वाली संभावित दवाओं का निर्णय लेने के लिए एआई का उपयोग कर सकता है, जो उनके चिकित्सा इतिहास, शारीरिक विवरण और आनुवंशिक संरचना पर निर्भर करता है। शोधकर्ता पहले से ही इस दृष्टिकोण की खोज कर रहे हैं सटीक दवा.

लेकिन सामान्य ज्ञान और एहतियाती सिद्धांत सुझाव है कि एआई के लिए मानव निरीक्षण के बिना दवाएं लिखना जल्दबाजी होगी। और तथ्य यह है कि तकनीक में गलतियाँ शामिल हो सकती हैं, इसका मतलब यह हो सकता है कि जहां मानव स्वास्थ्य दांव पर है, वहां मानव पर्यवेक्षण हमेशा आवश्यक होगा।

(कार्लोस गेर्शेन्सन बिंघमटन यूनिवर्सिटी, स्टेट यूनिवर्सिटी ऑफ़ न्यूयॉर्क में इनोवेशन के प्रोफेसर हैं)

यह लेख क्रिएटिव कॉमन्स लाइसेंस के तहत द कन्वर्सेशन से पुनः प्रकाशित किया गया है। मूल लेख यहां पढ़ें: https://theconversation.com/ais-errors-may-be-impossible-to-eliminate-what-that-means-for-its-use-in-health-care-251036.

प्रकाशित – 01 फरवरी, 2026 03:22 अपराह्न IST

Exit mobile version