तेजी से आगे बढ़ती दुनिया में उद्यमों को जोखिम से निपटने में मदद करने के लिए 6 एआई शासन सिद्धांत

कृत्रिम बुद्धिमत्ता (एआई) के तेजी से लोकतंत्रीकरण और अपनाने की अभूतपूर्व गति के कारण, उद्यम उत्पन्न होने वाले अपरिचित जोखिमों और उसके बाद के अनुपालन और नियामक दबावों से निपटने में सक्षम नहीं हो सकते हैं। आईटी प्रशासन के लिए पारंपरिक दृष्टिकोण एआई संदर्भ में कम पड़ रहे हैं, जो नवाचारों की गति के साथ तालमेल नहीं बिठा पाया है। एआई कार्यान्वयन अक्सर पूरे उद्यम में अत्यधिक विकेन्द्रीकृत और विशिष्ट होते हैं, जिससे जोखिम प्रबंधन तंत्र स्थापित करना मुश्किल हो जाता है। एआई अक्सर तीसरे पक्ष के सॉफ्टवेयर, हार्डवेयर और सेवाओं में अंतर्निहित होता है जो विशिष्ट व्यावसायिक इकाइयों में तैनात होते हैं, जो संभावित रूप से कानूनी, प्रतिष्ठित, डेटा गोपनीयता और परिचालन क्षेत्रों में अनदेखे जोखिमों के संपर्क में आते हैं। एआई शासन ढांचे को निम्नलिखित सिद्धांतों पर आधारित होना चाहिए, जिन्हें पूरे जीवनचक्र में शामिल करने की आवश्यकता है, न कि केवल मॉडल सत्यापन के दौरान।

पूर्वाग्रह शमन

मनुष्यों में अक्सर संज्ञानात्मक पूर्वाग्रह और नकारात्मक संबंध होते हैं, जो अक्सर और अनजाने में एआई सिस्टम में घुस जाते हैं। किसी उद्यम के लिए, अनुचित पूर्वाग्रह भर्ती में व्याप्त हो सकते हैं या कुछ ग्राहक जनसांख्यिकी के लिए सेवाओं के स्तर में अंतर हो सकते हैं, जैसे लिंग या जातीयता से जुड़ी ऋण स्वीकृति दरें। विकल्प-आधारित वर्गीकरण जैसी उचित पूर्व और बाद की प्रसंस्करण तकनीकें सुधारात्मक भार निर्दिष्ट करने और पूर्वाग्रह को खत्म करने में मदद करती हैं। प्रतिकूल डिबियासिंग एक इन-प्रोसेसिंग तकनीक है जिसमें पहले मॉडल की संवेदनशील विशेषताओं की भविष्यवाणी करने के लिए एक दूसरा मॉडल विकसित किया जाता है जो पूर्वाग्रह का कारण बनता है। पूर्वाग्रह को कम करने के लिए इसी तरह की अन्य जांच और संतुलन मौजूद हैं, जैसे कि क्या-क्या विश्लेषण उपकरण जो तनाव परीक्षण मॉडल के लिए इंटरैक्टिव दृश्य विश्लेषण प्रदान करते हैं और इसके ब्लाइंड स्पॉट और बाधाओं का पता लगाते हैं।

व्याख्यात्मकता

उच्चतम सटीकता प्राप्त करने की अपनी खोज में, डेवलपर्स अक्सर मॉडल को अधिक पारदर्शी बनाने पर अपना ध्यान केंद्रित करने की उपेक्षा करते हैं। शुरुआत में, डेवलपर्स ने एआई को “ब्लैक बॉक्स” के रूप में देखा, जहां वे केवल इनपुट और आउटपुट में रुचि रखते थे और आंतरिक कामकाज को अधिक दृश्यमान बनाने में ज्यादा प्रयास नहीं करते थे। सामान्य डेटा संरक्षण विनियमन (जीडीपीआर) जैसे नियम स्वचालित निर्णय लेने वाली प्रणालियों द्वारा उत्पन्न जवाबदेही चुनौतियों से निपटने के लिए स्पष्टीकरण के अधिकार को अनिवार्य करते हैं। एआई-संचालित समाधानों से उत्पन्न होने वाले विवादों को हल करने के लिए, मध्यस्थों को समस्या के मूल कारण को समझना चाहिए और इसका श्रेय सही इकाई को देना चाहिए। एआई सिस्टम में व्याख्यात्मकता को बढ़ाने के लिए कई तकनीकें हैं। प्रॉक्सी मॉडलिंग में, अधिक जटिल एआई मॉडल को समझने के लिए निर्णय वृक्ष जैसे सरल मॉडल का उपयोग किया जाता है। एक अन्य दृष्टिकोण, जिसे “डिज़ाइन द्वारा व्याख्यात्मकता” कहा जाता है, छोटे और अधिक समझाने योग्य हिस्सों से समग्र नेटवर्क बनाने का प्रयास करता है।

reproducibility

एआई लर्निंग वर्कफ़्लो में पुनरुत्पादन का मतलब है कि डेटा प्रोसेसिंग, मॉडल प्रशिक्षण और मॉडल परिनियोजन के प्रत्येक चरण को समान इनपुट दिए जाने पर समान परिणाम उत्पन्न करना चाहिए। हितधारकों के बीच किसी परियोजना के एमएल घटकों में विश्वास बनाने के लिए निरंतरता की आवश्यकता होती है। उचित मॉडल दस्तावेज़ीकरण प्रतिलिपि प्रस्तुत करने योग्यता में सुधार कर सकता है। प्रतिलिपि प्रस्तुत करने योग्यता के लिए सर्वोत्तम संभव परिणाम प्राप्त करने के लिए, उद्यमों को तीन फोकस क्षेत्रों-डेटा, मॉडल और हार्डवेयर और सॉफ्टवेयर वातावरण पर केंद्रित एमएलओपीएस सर्वोत्तम प्रथाओं को अपनाना चाहिए।

सुरक्षा

एआई सिस्टम की सुरक्षा और सुरक्षा के लिए कई खतरे मौजूद हैं। एक प्रमुख मुद्दा यह है कि समय से पहले सभी संभावित डाउनस्ट्रीम प्रभावों की भविष्यवाणी करना कठिन है, विशेष रूप से स्वचालन की कई परतों वाली जटिल प्रणालियों में। हमलावर विभिन्न प्रकार की कमजोरियों को लक्षित कर सकते हैं, उनमें से एक एआई सिस्टम को शक्ति देने के लिए उपयोग किए जाने वाले डेटा के साथ छेड़छाड़ करना है, जिससे विनाशकारी परिणाम हो सकते हैं। आवश्यक सुरक्षा प्रोटोकॉल के साथ सिस्टम विकसित करना और यह सुनिश्चित करना चुनौतीपूर्ण है कि वे बदलते रुझानों और इनपुट के अनुकूल लचीले बने रहें। जहां तक ​​पुनरुत्पादन की बात है, डेटा और मॉडल प्रबंधन के लिए जांच और संतुलन कई चिंताओं को कम करने में मदद करते हैं।

नैतिक

एक उचित नैतिक एआई ढांचा केवल कानूनी और नियामक पहलुओं का पालन करने के बारे में नहीं है बल्कि इसमें व्यक्तिगत अधिकारों, निष्पक्षता और गोपनीयता पर गहराई से आधारित मौलिक मूल्य शामिल हैं। नैतिक एआई दिशानिर्देश और उनका प्रवर्तन एआई के अनुचित और नाजायज उपयोग को रोकने में मदद करता है। उद्यमों के पास स्पष्ट रूप से बताई गई नीतियां होनी चाहिए जो संगठन में सभी स्तरों पर आसानी से पहुंच योग्य हों और अनुपालन सुनिश्चित करने के लिए संरचित समीक्षा प्रक्रियाएं होनी चाहिए। बार-बार और लक्षित ऑडिट और उचित आंतरिक फीडबैक और प्रतिस्पर्धी तंत्र समय से पहले नैतिक चिंताओं को चिह्नित कर सकते हैं। यहां भी, प्रतिकूल परीक्षण उन “सीमावर्ती मामलों” को उजागर कर सकता है जहां मॉडल अनुचित तरीके से व्यवहार करता है, और सिस्टम और संबद्ध प्रक्रियाओं का तनाव परीक्षण करता है जो डाउनस्ट्रीम हैं।

मानव-एआई सहयोग

“ह्यूमन इन द लूप” एक ऐसा तंत्र है जो एक जटिल स्वचालित वर्कफ़्लो की निर्णय लेने की प्रक्रिया में महत्वपूर्ण बिंदुओं पर मानव अभिनेताओं को शामिल करता है, जिन्हें संपूर्ण जोखिम मूल्यांकन के बाद पहचाना जाता है। बड़ी चुनौती यह सुनिश्चित करना है कि मानवीय हस्तक्षेप कैसे और कब आना चाहिए। हमें निर्णयों की संवेदनशीलता, संभावित परिणाम, प्रक्रिया का बड़ा उद्देश्य और प्रत्येक चरण में जोखिम कारक जैसे चर पर विचार करना चाहिए। वर्कफ़्लो में मशीन से मानव और मानव से मशीन में संक्रमण के दौरान जानकारी का नुकसान नहीं होना चाहिए। एक प्रमुख पहलू इस प्रकार की प्रणालियों में गतिशील आवश्यकताओं से निपटने के लिए संचार और लचीलेपन के रास्ते बनाना होगा। जैसे-जैसे उद्यम एआई-संचालित समाधानों के साथ अधिक जुड़ते हैं, नए जोखिम सामने आएंगे, जिससे विश्वास कारक को खतरा होगा। व्यावसायिक नेताओं को यह सुनिश्चित करना चाहिए कि प्रत्येक एआई परिनियोजन सुझाए गए ढांचे के अनुसार संचालित हो ताकि यह सुनिश्चित हो सके कि उनका एआई नैतिक और लाभप्रद रूप से चलता है।लेखक इंफोसिस के कार्यकारी उपाध्यक्ष-एआई, ऑटोमेशन और ईसीएस के वैश्विक प्रमुख हैं।