हाल ही में बेंगलुरु स्थित स्टार्टअप सर्वम एआई (Sarvam AI) द्वारा ‘एआई इम्पैक्ट समिट (AI Impact Summit) 2026' में प्रस्तुत दो स्वदेशी लार्ज लैंग्वेज मॉडल्स (Large Language Models) (35B व 105B) का अनावरण भारत की संप्रभु एआई (Sovereign AI) क्षमता के लिए एक युगांतकारी क्षण है। यह न केवल तकनीक है बल्कि डिजिटल आत्मनिर्भरता की दिशा में एक बड़ा कदम है।
क्या हैं लार्ज लेंग्वेज मॉडल (LLMs)
- लार्ज लेंग्वेज मॉडल (LLM) एक प्रकार का उन्नत कृत्रिम बुद्धिमत्ता (AI) तंत्र है जिसे इंटरनेट की विशाल पाठ्य सामग्रियों (Text Data) पर प्रशिक्षित किया जाता है। इसका मुख्य उद्देश्य मानव भाषा को समझना, उसका अनुवाद करना और स्वाभाविक रूप से संवाद करना है।
- इन मॉडलों में अरबों पैरामीटर्स (आंतरिक गणितीय चर) होते हैं। जिस तरह मानव मस्तिष्क में न्यूरॉन्स संबंधों को याद रखते हैं, वैसे ही ये पैरामीटर्स मॉडल को भाषाई पैटर्न और तथ्यों को पहचानने में मदद करते हैं।
LLM की कार्यप्रणाली: शब्दों से गणित तक
LLM केवल टेक्स्ट नहीं पढ़ता है बल्कि उसे गणितीय समीकरणों में बदल देता है। इसकी प्रक्रिया के मुख्य चरण निम्नलिखित हैं-
1. टोकनाइजेशन (Tokenization)
यह मॉडल शब्दों को पूर्ण रूप में न पढ़कर उन्हें टोकन (जैसे- शब्दांश, अक्षर या चिह्न) में विभाजित करता है। यह प्रक्रिया मॉडल को दुर्लभ शब्दों, व्याकरणिक बारीकियों और अलग-अलग वर्तनी को समझने में सक्षम बनाती है।
2. ट्रांसफॉर्मर और वेक्टर मैप (Vector Embeddings)
इन टोकनों को हाई-डायमेंशनल स्पेस (एक जटिल गणितीय मानचित्र) में रखा जाता है। समान अर्थ वाले शब्द (जैसे- ‘सूरज’ और ‘सूर्य’) इस मानचित्र में एक-दूसरे के निकट स्थित होते हैं जिससे मॉडल संदर्भ को समझ पाता है।
3. सेल्फ-अटेंशन तंत्र (Self-Attention Mechanism)
यह मॉडल का मस्तिष्क है। वाक्य पढ़ते समय मॉडल यह तय करता है कि किस शब्द पर कितना ध्यान (Attention) देना है। उदाहरण के लिए, ‘राम ने श्याम को अपनी पुस्तक दी’ वाक्य में ‘अपनी’ शब्द ‘राम’ के लिए प्रयुक्त हुआ है, इसे समझने के लिए मॉडल अटेंशन वेट का उपयोग करता है।
4. अगले टोकन की भविष्यवाणी (Next Token Prediction)
LLM मूलत: एक अत्यंत कुशल भविष्यवाणी इंजन है। यह पिछले शब्दों के आधार पर अगले सबसे संभावित शब्द (टोकन) का अनुमान लगाता है। इसी कारण यह धाराप्रवाह और तर्कसंगत उत्तर तैयार कर पाता है।
प्रशिक्षण के प्रमुख चरण
एक कच्चे मॉडल को बुद्धिमानी से उत्तर देने वाला ‘चैटबॉट’ बनाने के लिए तीन चरणों से गुजरना पड़ता है-
- प्री-ट्रेनिंग (Pre-training): इसे खरबों शब्दों का डेटा दिया जाता है ताकि यह दुनिया का सामान्य ज्ञान, व्याकरण और तर्क सीख सके।
- फाइन-ट्यूनिंग (Fine-tuning): यहाँ मॉडल को विशिष्ट कार्यों (जैसे- कानूनी सलाह या कोडिंग) के लिए विशेष डेटा पर तराशा जाता है।
- RLHF (मानव फीडबैक से सीखना): मानव परीक्षक मॉडल के उत्तरों को सही या गलत की रेटिंग देते हैं जिससे वह अधिक सुरक्षित व सटीक बनता है।
LLM की अद्वितीय क्षमताएँ
- सृजनात्मकता (Generative): यह शून्य से कविता, ईमेल या कंप्यूटर कोड लिख सकता है।
- इन-कॉन्टेक्स्ट लर्निंग: आप इसे बस दो-तीन उदाहरण देकर नई तरह का काम सिखा सकते हैं।
- ज़ीरो-शॉट तर्क: बिना किसी विशेष प्रशिक्षण के यह अपनी सामान्य समझ का उपयोग करके कठिन तार्किक पहेलियाँ हल कर सकता है।
- बहुभाषिकता: भारतीय भाषाओं के विशाल डेटा पर प्रशिक्षित होने के कारण Sarvam AI जैसे मॉडल हिंदी, तमिल, तेलुगु जैसी भाषाओं में अधिक सटीक संवाद कर सकते हैं।