अब तक कहानी:
एआई इम्पैक्ट समिट में, बेंगलुरु स्थित स्टार्टअप सर्वम एआई ने दो बड़े भाषा मॉडल (एलएलएम) जारी किए, जो एआई सिस्टम की नींव हैं जो Google की जेमिनी और ओपनएआई की चैटजीपीटी जैसी सेवाओं को शक्ति प्रदान करते हैं। सर्वम के सह-संस्थापक प्रत्यूष कुमार ने कहा कि दोनों मॉडलों को क्रमशः 35 बिलियन और 105 बिलियन मापदंडों पर प्रशिक्षित किया गया था, और तुलनीय मॉडलों की तुलना में कम शक्ति और गणना-गहन थे, जबकि भारतीय भाषाओं में अन्य मॉडलों की तुलना में सुधार प्रदर्शित किया गया था।
एलएलएम को कैसे प्रशिक्षित किया जाता है?
एलएलएम को ग्राफिक्स प्रोसेसिंग यूनिट्स (जीपीयू) के समूहों पर प्रशिक्षित और संचालित किया जाता है। किसी मॉडल को प्रशिक्षित करने के लिए GPU और उन्हें लंबे समय तक चलाने के लिए आवश्यक बिजली की संयुक्त लागत लाखों डॉलर में होती है। इस मिल का मुख्य आधार डेटा है, जो बड़े पैमाने पर इंटरनेट से निकाला गया है, जहां अंग्रेजी, यूरोपीय भाषाएं और कोरियाई और जापानी जैसी पूर्वी एशियाई भाषाएं भारतीय भाषाओं की तुलना में अधिक समृद्ध रूप से प्रस्तुत की जाती हैं।
यह भारतीय पूंजी के साथ भारतीय धरती पर एलएलएम प्रशिक्षण के लिए दोहरी चुनौती पैदा करता है: एक बात के लिए, दुर्लभ डेटा स्रोतों के साथ, कई एलएलएम या तो भारतीय भाषाओं पर काम करते समय खराब प्रदर्शन करते हैं, या बेहतर प्रदर्शन करने के लिए अंग्रेजी में वाक्यों का अनुवाद करने (और प्रतिक्रियाओं का अनुवाद करने) के अनुमान पर अधिक “टोकन” जलाते हैं। चूँकि भारतीय भाषाओं में मशीनी अनुवाद में नाटकीय रूप से सुधार हुआ है, यह कई एलएलएम के लिए स्वर्ण मानक बना हुआ है। दूसरे, चूंकि पूंजी भी दुर्लभ है, इसलिए भारतीय उपयोगकर्ताओं को लक्षित करने वाली भारतीय कंपनियों द्वारा एलएलएम को प्रशिक्षित करने के प्रयास चुनौतीपूर्ण हो सकते हैं, खासकर यदि ऐसा करने के लिए कोई तत्काल व्यावसायिक उपयोग का मामला नहीं है।
आधार के रूप में अनुवाद का उपयोग करना उन डेवलपर्स के लिए एक चुनौती हो सकता है जो स्थानीय एलएलएम का लाभ उठाना चाहते हैं – जैसे कि सर्वम का 35 बिलियन पैरामीटर मॉडल, जिसे फीचर फोन पर काम करते हुए शिखर सम्मेलन के अनुसंधान संगोष्ठी के दौरान एक डेमो में दिखाया गया था – जहां भारतीय भाषाओं में उप-इष्टतम प्रदर्शन अपनाने और प्रदर्शन की गुणवत्ता को प्रभावित कर सकता है।
क्या सरकारी सहायता मिली है?
इंडियाएआई मिशन ने योट्टा जैसी भारतीय कंपनियों द्वारा संचालित डेटा केंद्रों में 36,000 से अधिक जीपीयू को चालू करके और शोधकर्ताओं और स्टार्टअप को अपेक्षाकृत मामूली शुल्क पर प्रशिक्षण चलाने और कार्यभार का अनुमान लगाने की अनुमति देकर, भारत में प्रशिक्षण आयोजित करने के प्रयासों को सब्सिडी दी है। सरकार ने सर्वम को अपने सामान्य कंप्यूट क्लस्टर से 4,096 जीपीयू तक पहुंच प्रदान की, और अब तक सब्सिडी लगभग ₹100 करोड़ होने का अनुमान है। इस क्लस्टर के लिए “सामग्री का बिल” ₹246 करोड़ है, हालांकि इन जीपीयू का उपयोग संभवतः दूसरों द्वारा जारी रखा जा सकता है।
इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने कई कारणों से घरेलू एलएलएम विकास को प्रोत्साहित किया है। मुख्य बात यह धारणा है कि विदेशी-विकसित एलएलएम संभवतः भारतीय भाषाओं के साथ अच्छी तरह से काम करने की क्षमता विकसित करने की क्षमता या व्यावसायिक मामला नहीं ढूंढ सकते हैं। इसके अतिरिक्त, एलएलएम को प्रशिक्षित करने वाली प्रतिभा को प्रोत्साहित करना भारतीय एआई पारिस्थितिकी तंत्र को बढ़ावा देने के लिए महत्वपूर्ण माना गया है।
इस प्रकार, सर्वम द्वारा अपने दो मॉडलों की घोषणा एक शक्तिशाली और अपेक्षाकृत सस्ती एलएलएम विकसित करने की भारत की अपनी खोज में एक महत्वपूर्ण विकास है। जब चीन के डीपसीक ने अपना आर1 एलएलएम विकसित किया, तो पूरे एआई उद्योग ने तुरंत इसकी तकनीकों को अपनाया, क्योंकि इसने आउटपुट गुणवत्ता से समझौता किए बिना प्रशिक्षण और अनुमान की लागत बचाई। सरकार ने समान लागत लाभ जगाने की कोशिश की है।
सर्वम के श्री कुमार ने कहा कि एलएलएम को “स्क्रैच से” प्रशिक्षित किया गया था और मॉडल को खुला स्रोत बनाया जाएगा। हालाँकि, इसे इंडस नाम के ऐप पर उपलब्ध कराया गया है, लेकिन यह हगिंग फेस जैसे प्लेटफॉर्म पर उपलब्ध नहीं है, जिससे बाहरी विशेषज्ञों के लिए फर्म द्वारा किए गए दावों की जांच करना मुश्किल हो गया है।
MoE आर्किटेक्चर क्या है?
स्थानीय स्तर पर कार्य करने के इच्छुक एआई मॉडल के लिए एक महत्वपूर्ण सफलता विशेषज्ञों का मिश्रण (एमओई) वास्तुकला थी। जब सैकड़ों अरबों या यहां तक कि एक ट्रिलियन से अधिक मापदंडों पर प्रशिक्षित पहला एलएलएम लॉन्च किया गया था, तो आम तौर पर सभी मापदंडों को “सक्रिय” करके अनुमान लगाया जाता था, जिससे प्रश्न महंगे हो जाते थे। लेकिन एक MoE मॉडल किसी मॉडल के समग्र मापदंडों का केवल एक अंश ही सक्रिय करता है, जिससे यह तेजी से चलता है और कम स्तर के कंप्यूटिंग संसाधनों का उपभोग भी करता है।
यहां तक कि 105 बिलियन पैरामीटर, सर्वम स्वीकार करते हैं, “आज वैश्विक उपभोक्ता चैट अनुप्रयोगों को शक्ति प्रदान करने वाले फ्रंटियर मॉडल की तुलना में काफी छोटा है,” और फर्म का कहना है कि यह “बड़े मूलभूत मॉडल को प्रशिक्षित करने से पहले जानबूझकर भारतीय संदर्भ के लिए सटीकता, उपयोगिता, दक्षता और संरेखण पर केंद्रित है”।
इस प्रकार, उत्तर जेमिनी या चैटजीपीटी के भुगतान किए गए संस्करणों की प्रतिक्रिया के समान गहन नहीं हैं। सर्वम का कहना है कि वह हिस्सा बाद में आएगा, जब उसके पास बड़े प्रशिक्षण कार्यक्रम में पैसा लगाने के लिए आवश्यक निवेश होगा।
कॉमन कंप्यूट क्लस्टर पर एक और एलएलएम विकसित और प्रशिक्षित किया गया था, जो कि आईआईटी बॉम्बे-इनक्यूबेटेड फर्म भारतजेन द्वारा किया गया था, जो “बहुभाषी” 17 बिलियन पैरामीटर मॉडल को प्रशिक्षित करने में सक्षम था। कंपनी का कहना है कि यह मॉडल शिक्षा और स्वास्थ्य सेवा जैसे क्षेत्रों में उपयोग के लिए है। एक अन्य फर्म Gnani.ai ने एक छोटा टेक्स्ट-टू-स्पीच मॉडल लॉन्च किया।
प्रकाशित – 26 फरवरी, 2026 08:30 पूर्वाह्न IST

