अध्ययन से पता चलता है कि चैटजीपीटी जैसे एआई मॉडल ऑनलाइन जंक सामग्री से ‘ब्रेन रोट’ विकसित कर सकते हैं प्रौद्योगिकी समाचार

कंप्यूटिंग, शिक्षा, वित्त, चिकित्सा और अन्य जैसे विभिन्न क्षेत्रों में उपयोग करते हुए, जेनरेटिव एआई ने काफी तेजी से प्रगति की है। हालाँकि AI अभी भी मतिभ्रम से ग्रस्त है, Google, Microsoft, OpenAI और Anthropic जैसी कंपनियाँ प्रौद्योगिकी में अरबों डॉलर का निवेश कर रही हैं।

बड़े भाषा मॉडल – जो चैटजीपीटी और जेमिनी जैसे एआई चैटबॉट्स की रीढ़ हैं, को पूरे इंटरनेट से जानकारी पर प्रशिक्षित किया जाता है, कॉर्नेल विश्वविद्यालय के एक नए अध्ययन से पता चलता है कि कम गुणवत्ता वाले डेटा के लंबे समय तक संपर्क के बाद एआई भी “मस्तिष्क सड़न” से पीड़ित होता है।

एलएलएम कैन गेट “ब्रेन रोट” शीर्षक वाले एक पेपर में, शोधकर्ताओं का कहना है कि उन्होंने एलएलएम को ऑनलाइन अस्पष्टता से अवगत कराया और नोट किया कि “जंक वेब टेक्स्ट स्थायी संज्ञानात्मक गिरावट को प्रेरित करता है।” अध्ययनों से पहले पता चला है कि ऐसी सामग्री तर्क और फोकस जैसी मानव संज्ञानात्मक क्षमताओं को भी नकारात्मक रूप से प्रभावित करती है, और अब एआई मॉडल के लिए भी यही कहा जा सकता है।

इस विज्ञापन के नीचे कहानी जारी है

शोधकर्ताओं का कहना है कि उन्होंने सोशल मीडिया प्लेटफॉर्म इन पोस्टों का उपयोग लामा 3 और क्वेन 2.5 जैसे एआई मॉडल पर प्रभाव का अध्ययन करने के लिए किया गया था।

अध्ययन में, यह नोट किया गया कि ब्रेन रोट सामग्री का उपयोग करने वाले इन एआई मॉडल की सटीकता 74.9 प्रतिशत से गिरकर 57.2 प्रतिशत हो गई। जैसा कि पता चला, ये एआई मॉडल बहुत सारे संदर्भों के साथ जानकारी को सटीक रूप से समझने में असमर्थ थे, क्षमता 84.4 प्रतिशत से गिरकर 52.3 प्रतिशत हो गई।

इन एलएलएम के अधिक जंक सामग्री के संपर्क में आने के बाद, उनकी संज्ञानात्मक और व्यापक क्षमताओं पर भारी असर पड़ा। इसके अलावा, निम्न गुणवत्ता ने उन्हें कम विश्वसनीय भी बना दिया, क्योंकि उन्होंने अधिक गलत प्रतिक्रियाएँ उत्पन्न कीं। इन एलएलएम का विश्लेषण करने पर, शोधकर्ताओं ने नोट किया कि जंक डेटा पर प्रशिक्षित मॉडल “थॉट स्किपिंग” में लगे हुए हैं, एक ऐसी प्रक्रिया जहां एलएलएम अक्सर तर्क करते समय कुछ कदम छोड़ देते हैं। जंक डेटा पर आधारित एलएलएम में कुछ “अंधेरे लक्षण” भी थे, जिसने उन्हें मनोरोगी और आत्ममुग्धता की ओर झुका दिया।

जब शोधकर्ताओं ने जंक डेटा पर प्रशिक्षित इन एलएलएम को ताजा सामग्री के साथ पुनः प्रशिक्षित करके ठीक करने की कोशिश की, तो परिणाम आंशिक रूप से बेहतर थे। जबकि तर्क सटीकता में थोड़ा सुधार हुआ, यह अभी भी मूल आधार रेखा से कम है – एक घटना जिसे शोधकर्ता “निरंतर प्रतिनिधित्ववादी बहाव” के रूप में वर्णित करते हैं।

इस विज्ञापन के नीचे कहानी जारी है

शोध पत्र में सुझाव दिया गया है कि सभी लोकप्रिय एलएलएम को तीन-चरणीय प्रक्रिया में संज्ञानात्मक गिरावट के लिए समय-समय पर जांचा जाना चाहिए। पहले में तर्क में गिरावट के शुरुआती संकेतों का पता लगाने के लिए एआई मॉडल का नियमित संज्ञानात्मक मूल्यांकन शामिल है, जबकि दूसरे और तीसरे का उद्देश्य पूर्व-प्रशिक्षण के दौरान डेटा गुणवत्ता को नियंत्रित करना और यह अध्ययन करना है कि वायरल या निम्न-गुणवत्ता वाली सामग्री अपने सीखने के पैटर्न को कैसे नया आकार देती है।

© IE ऑनलाइन मीडिया सर्विसेज प्राइवेट लिमिटेड