ज़िको कोल्टर कौन है? एक प्रोफेसर ओपनएआई सुरक्षा पैनल का नेतृत्व करता है जिसके पास असुरक्षित एआई रिलीज को रोकने की शक्ति है | प्रौद्योगिकी समाचार

यदि आप मानते हैं कि कृत्रिम बुद्धिमत्ता मानवता के लिए गंभीर जोखिम पैदा करती है, तो कार्नेगी मेलन विश्वविद्यालय के एक प्रोफेसर की इस समय तकनीकी उद्योग में सबसे महत्वपूर्ण भूमिकाओं में से एक है।

ज़िको कोल्टर OpenAI में 4-व्यक्ति पैनल का नेतृत्व करते हैं जिसके पास ChatGPT निर्माता के नए AI सिस्टम को असुरक्षित पाए जाने पर रिलीज़ को रोकने का अधिकार है। वह तकनीक इतनी शक्तिशाली हो सकती है कि कोई दुष्ट इसका उपयोग सामूहिक विनाश के हथियार बनाने में कर सके। यह एक नया चैटबॉट भी हो सकता है जिसे इतने खराब तरीके से डिज़ाइन किया गया है कि यह लोगों के मानसिक स्वास्थ्य को नुकसान पहुंचाएगा। एसोसिएटेड प्रेस के साथ एक साक्षात्कार में कोल्टर ने कहा, “यहां हम केवल अस्तित्व संबंधी चिंताओं के बारे में बात नहीं कर रहे हैं।”

“हम सुरक्षा और सुरक्षा के सभी मुद्दों और महत्वपूर्ण विषयों के बारे में बात कर रहे हैं जो तब सामने आते हैं जब हम इन व्यापक रूप से उपयोग किए जाने वाले एआई सिस्टम के बारे में बात करना शुरू करते हैं।” ओपनएआई ने एक साल से अधिक समय पहले कंप्यूटर वैज्ञानिक को अपनी सुरक्षा और सुरक्षा समिति के अध्यक्ष के रूप में नियुक्त किया था, लेकिन पिछले हफ्ते यह स्थिति तब और अधिक महत्वपूर्ण हो गई जब कैलिफोर्निया और डेलावेयर नियामकों ने ओपनएआई को अधिक आसानी से पूंजी जुटाने और लाभ कमाने के लिए एक नई व्यावसायिक संरचना बनाने की अनुमति देने के लिए कोल्टर के निरीक्षण को अपने समझौतों का एक महत्वपूर्ण हिस्सा बना दिया।

इस विज्ञापन के नीचे कहानी जारी है

ओपनएआई के मिशन में सुरक्षा केंद्रीय रही है क्योंकि इसे एक दशक पहले एक गैर-लाभकारी अनुसंधान प्रयोगशाला के रूप में स्थापित किया गया था, जिसका लक्ष्य मानवता को लाभ पहुंचाने वाले मानव-से-बेहतर एआई का निर्माण करना था। लेकिन चैटजीपीटी की रिलीज के बाद वैश्विक एआई वाणिज्यिक उछाल आया, कंपनी पर दौड़ में सबसे आगे रहने के लिए पूरी तरह से सुरक्षित होने से पहले उत्पादों को बाजार में लाने का आरोप लगाया गया है। आंतरिक विभाजन जिसके कारण 2023 में सीईओ सैम ऑल्टमैन को अस्थायी रूप से बाहर कर दिया गया, उन चिंताओं को लेकर आया कि यह अपने मिशन से भटक गया था।

सैन फ्रांसिस्को स्थित संगठन को जब अपनी प्रौद्योगिकी को आगे बढ़ाने के लिए खुद को एक अधिक पारंपरिक लाभकारी कंपनी में बदलने के लिए कदम उठाने शुरू हुए तो सह-संस्थापक एलोन मस्क के मुकदमे सहित – विरोध का सामना करना पड़ा।

कैलिफ़ोर्निया अटॉर्नी जनरल रॉब बोंटा और डेलावेयर अटॉर्नी जनरल कैथी जेनिंग्स के साथ ओपनएआई द्वारा पिछले सप्ताह घोषित समझौतों का उद्देश्य उनमें से कुछ चिंताओं को दूर करना था। औपचारिक प्रतिबद्धताओं के केंद्र में एक वादा है कि सुरक्षा और सुरक्षा के बारे में निर्णय वित्तीय विचारों से पहले आना चाहिए क्योंकि ओपनएआई एक नया सार्वजनिक लाभ निगम बनाता है जो तकनीकी रूप से अपने गैर-लाभकारी ओपनएआई फाउंडेशन के नियंत्रण में है। कोल्टर गैर-लाभकारी बोर्ड के सदस्य होंगे, लेकिन फ़ायदेमंद बोर्ड में नहीं।

लेकिन ओपनएआई के साथ बोंटा के समझौता ज्ञापन के अनुसार, उसके पास सभी लाभकारी बोर्ड बैठकों में भाग लेने और एआई सुरक्षा निर्णयों के बारे में मिलने वाली जानकारी तक पहुंच का “पूर्ण अवलोकन अधिकार” होगा।

इस विज्ञापन के नीचे कहानी जारी है

बोंटा के अलावा कोल्टर एकमात्र व्यक्ति हैं, जिनका नाम इस लंबे दस्तावेज़ में है। कोल्टर ने कहा कि समझौते काफी हद तक इस बात की पुष्टि करते हैं कि पिछले साल गठित उनकी सुरक्षा समिति उन अधिकारियों को बरकरार रखेगी जो उसके पास पहले से थे। अन्य तीन सदस्य भी OpenAI बोर्ड में बैठते हैं – उनमें से एक पूर्व अमेरिकी सेना जनरल पॉल नाकासोन हैं, जो यूएस साइबर कमांड के कमांडर थे।

ऑल्टमैन ने पिछले साल सुरक्षा पैनल से इस्तीफा दे दिया था, जिसे इसे और अधिक स्वतंत्रता देने के रूप में देखा गया था। कोल्टर ने कहा, “हमारे पास कुछ शमन पूरा होने तक मॉडल रिलीज के अनुरोध में देरी जैसी चीजें करने की क्षमता है।” उन्होंने अपनी कार्यवाही की गोपनीयता का हवाला देते हुए यह कहने से इनकार कर दिया कि क्या सुरक्षा पैनल को कभी किसी रिलीज को रोकना या कम करना पड़ा है। कोल्टर ने कहा कि आने वाले महीनों और वर्षों में एआई एजेंटों के बारे में साइबर सुरक्षा से लेकर कई तरह की चिंताओं पर विचार किया जाएगा – “क्या कोई एजेंट जो इंटरनेट पर कुछ दुर्भावनापूर्ण पाठ का सामना करता है, वह गलती से डेटा में घुसपैठ कर सकता है?” – एआई मॉडल वेट के आसपास की सुरक्षा चिंताओं के लिए, जो संख्यात्मक मान हैं जो एआई सिस्टम के प्रदर्शन को प्रभावित करते हैं।

“लेकिन ऐसे विषय भी हैं जो या तो उभर रहे हैं या वास्तव में एआई मॉडल के इस नए वर्ग के लिए विशिष्ट हैं जिनका पारंपरिक सुरक्षा में कोई वास्तविक एनालॉग नहीं है,” उन्होंने कहा। “जब जैविक हथियार डिजाइन करने या दुर्भावनापूर्ण साइबर हमले करने जैसी चीजों की बात आती है तो क्या मॉडल दुर्भावनापूर्ण उपयोगकर्ताओं को बहुत अधिक क्षमताएं रखने में सक्षम बनाते हैं?”

“और फिर अंततः, लोगों पर एआई मॉडल का प्रभाव पड़ता है,” उन्होंने कहा। “लोगों के मानसिक स्वास्थ्य पर प्रभाव, इन मॉडलों के साथ बातचीत करने वाले लोगों के प्रभाव और इसके कारण क्या हो सकते हैं। मुझे लगता है कि इन सभी चीजों को सुरक्षा के दृष्टिकोण से संबोधित करने की आवश्यकता है।”

इस विज्ञापन के नीचे कहानी जारी है

ओपनएआई को इस साल अपने प्रमुख चैटबॉट के व्यवहार को लेकर पहले ही आलोचना का सामना करना पड़ा है, जिसमें कैलिफोर्निया के माता-पिता का गलत मौत का मुकदमा भी शामिल है, जिनके किशोर बेटे ने चैटजीपीटी के साथ लंबी बातचीत के बाद अप्रैल में खुद को मार डाला था। कार्नेगी मेलन के मशीन लर्निंग विभाग के निदेशक कोल्टर ने 2000 के दशक की शुरुआत में, फैशनेबल होने से बहुत पहले, जॉर्जटाउन यूनिवर्सिटी के नए छात्र के रूप में एआई का अध्ययन शुरू किया था।

“जब मैंने मशीन लर्निंग में काम करना शुरू किया, तो यह एक गूढ़, विशिष्ट क्षेत्र था,” उन्होंने कहा। “हमने इसे मशीन लर्निंग कहा क्योंकि कोई भी एआई शब्द का उपयोग नहीं करना चाहता था क्योंकि एआई पुराने समय का क्षेत्र था जिसमें बहुत अधिक वादा किया गया था और पूरा नहीं किया गया था।”

42 वर्षीय कोल्टर वर्षों से ओपनएआई का अनुसरण कर रहे हैं और इसके संस्थापकों के इतने करीब थे कि उन्होंने 2015 में एक एआई सम्मेलन में इसकी लॉन्च पार्टी में भाग लिया था। फिर भी, उन्हें उम्मीद नहीं थी कि एआई कितनी तेजी से आगे बढ़ेगा। उन्होंने कहा, “मुझे लगता है कि बहुत कम लोगों ने, यहां तक ​​कि मशीन लर्निंग में गहराई से काम करने वाले लोगों ने, वास्तव में हम जिस वर्तमान स्थिति में हैं, क्षमताओं के विस्फोट, इस समय उभर रहे जोखिमों के विस्फोट का अनुमान लगाया है।”

एआई सुरक्षा समर्थक ओपनएआई के पुनर्गठन और कोल्टर के काम पर करीब से नजर रखेंगे। कंपनी के सबसे तीखे आलोचकों में से एक का कहना है कि वह “सावधानीपूर्वक आशावादी हैं,” खासकर अगर कोल्टर का समूह “वास्तव में कर्मचारियों को नियुक्त करने और एक मजबूत भूमिका निभाने में सक्षम है।”

इस विज्ञापन के नीचे कहानी जारी है

“मुझे लगता है कि उनके पास उस तरह की पृष्ठभूमि है जो इस भूमिका के लिए उपयुक्त है। ऐसा लगता है कि वह इसे चलाने के लिए एक अच्छे विकल्प हैं,” छोटे एआई पॉलिसी गैर-लाभकारी एनकोड के जनरल काउंसिल नाथन कैल्विन ने कहा। केल्विन, जिसे ओपनएआई ने मस्क मुकदमे के खिलाफ बचाव के लिए अपने तथ्य-खोज के हिस्से के रूप में अपने घर पर एक सम्मन के साथ लक्षित किया था, ने कहा कि वह चाहता है कि ओपनएआई अपने मूल मिशन के प्रति सच्चा रहे।

कैल्विन ने कहा, “इनमें से कुछ प्रतिबद्धताएं वास्तव में बड़ी बात हो सकती हैं यदि बोर्ड के सदस्य उन्हें गंभीरता से लेते हैं।” “वे केवल कागज़ पर लिखे शब्द भी हो सकते हैं और वास्तव में होने वाली किसी भी चीज़ से बिल्कुल अलग हो सकते हैं। मुझे लगता है कि हम अभी तक नहीं जानते कि हम उनमें से किसमें हैं।”