The Lallantop

AI जानते होंगे, पर ये AI इंफरेंस क्या है? जिसके लिए Nvidia ने 1.6 लाख करोड़ खर्च दिए

Groq की वैल्यूएशन को देखें तो ये डील और भी हैरान करने वाली है. कुछ महीने पहले ही Groq ने 750 मिलियन डॉलर (लगभग 6 हजार करोड़ रुपये) की फंडिंग राउंड क्लोज की थी, जिसके बाद उसकी वैल्यू 6.9 बिलियन डॉलर (50 हजार करोड़ रुपये से ज्यादा) हो गई थी.

Advertisement
post-main-image
AI इंफरेंस वो प्रक्रिया है जहां पहले से ट्रेन किए गए AI मॉडल को नए डेटा पर इस्तेमाल करके रिजल्ट या प्रेडिक्शन निकाले जाते हैं. (फोटो- Groq)

Nvidia, AI चिप्स की दुनिया की किंग. कंपनी ने हाल ही में AI चिप स्टार्टअप Groq के साथ एक नॉन-एक्सक्लूसिव लाइसेंसिंग डील साइन की है. इस डील के तहत Nvidia Groq की हाई-परफॉर्मेंस और लो-कॉस्ट इंफरेंस चिप्स को लाइसेंस करेगी. डील की वैल्यू 20 बिलियन डॉलर (लगभग 1 लाख 60 हजार करोड़ रुपये) बताई जा रही है, जो Nvidia की अब तक की सबसे बड़ी टेक्नोलॉजी डील है. इससे ज्यादा दिलचस्प ये है कि Groq के फाउंडर और CEO जोनाथन रॉस और कई दूसरे एंप्लॉयी Nvidia जॉइन कर रहे हैं. इस डील के बाद से AI inference की खूब चर्चा है. इस डील में और क्या-क्या होगा, वो जानने से पहले AI inference के बारे में जानना जरूरी है.

Add Lallantop as a Trusted Sourcegoogle-icon
Advertisement
AI इंफरेंस

आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में आजकल ट्रेनिंग से ज्यादा फोकस इंफरेंस पर है. AI इंफरेंस क्या है? सरल शब्दों में, AI इंफरेंस वो प्रक्रिया है जहां पहले से ट्रेन किए गए AI मॉडल को नए डेटा पर इस्तेमाल करके रिजल्ट या प्रेडिक्शन निकाले जाते हैं. उदाहरण के लिए, जब आप ChatGPT से कोई सवाल पूछते हैं और वो तुरंत जवाब देता है, तो वो इंफरेंस का काम कर रहा होता है. माने, कुछ infer करना.

ट्रेनिंग स्टेज में AI मॉडल को लाखों-करोड़ों डेटा से सिखाया जाता है. जिसके लिए काफी पावरफुल कंप्यूटर और GPU (ग्राफिक्स प्रोसेसिंग यूनिट) की जरूरत होती है. लेकिन इंफरेंस में मॉडल पहले से तैयार होता है. इसलिए इसे तेज, कम लागत और ज्यादा एफिशिएंट बनाने पर जोर दिया जाता है. AI इंफरेंस में स्पेशलाइज्ड हार्डवेयर जैसे LPU (लैंग्वेज प्रोसेसिंग यूनिट) या TPU (टेंसर प्रोसेसिंग यूनिट) इस्तेमाल होते हैं. जो GPU से अलग होते हैं.

Advertisement
Image
LPU (लैंग्वेज प्रोसेसिंग यूनिट), TPU (टेंसर प्रोसेसिंग यूनिट) और GPU कैसे काम करते हैं.

ये चिप्स लो लेटेंसी (कम देरी) और हाई स्पीड प्रोवाइड करते हैं. जिससे AI ऐप्स रियल-टाइम में काम कर सकें. मसलन, वॉयस असिस्टेंट, इमेज रेकग्निशन या ऑटोनॉमस कारों में डिसीजन लेने के लिए इंफरेंस जरूरी है. ये सिर्फ AI के बल पर नहीं हो सकता. इसमें इंफरेंस का खेल होता है. लेकिन चुनौती ये है कि इंफरेंस के लिए बड़ी मात्रा में कंप्यूटिंग पावर चाहिए. जो महंगा और एनर्जी-कंज्यूमिंग होता है. इसी वजह से कंपनियां जैसे Nvidia और Groq स्पेशल चिप्स डेवलप कर रही हैं.

अब आते हैं डील पर, जो AI इंफरेंस की दुनिया को हिला रहा है. Groq की वेबसाइट के मुताबिक Nvidia की Groq के साथ डील न सिर्फ टेक्नोलॉजी की लाइसेंसिंग है, बल्कि AI चिप मार्केट में कॉम्पिटिशन को नई दिशा देने वाली है. Groq की वैल्यूएशन को देखें तो ये डील और भी हैरान करने वाली है. कुछ महीने पहले ही Groq ने 750 मिलियन डॉलर (लगभग 6 हजार करोड़ रुपये) की फंडिंग राउंड क्लोज की थी, जिसके बाद उसकी वैल्यू 6.9 बिलियन डॉलर (50 हजार करोड़ रुपये से ज्यादा) हो गई थी. Nvidia की डील उससे तीन गुना ज्यादा है, जो दिखाता है कि Groq की टेक्नोलॉजी कितनी वैल्यूएबल है.

Groq को भी जान लीजिए

Groq 2016 में बनी थी. ये कंपनी AI इंफरेंस के लिए स्पेशलाइज्ड चिप्स बनाती है, जिन्हें LPU कहते हैं. LPU का मतलब लैंग्वेज प्रोसेसिंग यूनिट है, जो लार्ज लैंग्वेज मॉडल्स (LLM) जैसे मेटा के LLaMA या OpenAI के GPT को ऑप्टिमाइज करता है. जोनाथन रॉस Groq के फाउंडर हैं. वो पहले गूगल में काम करते थे और वहां TPU चिप्स के क्रिएटर्स में से एक थे. TPU गूगल की कस्टम ASIC (एप्लिकेशन-स्पेसिफिक इंटीग्रेटेड सर्किट) है, जो AI कामों के लिए डिजाइन की गई है.

Advertisement

Groq की चिप्स क्लाउड सर्विस हार्डवेयर के रूप में उपलब्ध हैं, और ये 20 लाख से ज्यादा डेवलपर्स द्वारा इस्तेमाल हो रही हैं. Groq का क्लेम है कि उनकी चिप्स AI मॉडल्स की परफॉर्मेंस को बनाए रखते हुए या सुधारते हुए, कॉस्ट को काफी कम कर देती हैं. उदाहरण के लिए, अगर GPU पर एक AI क्वेरी प्रोसेस करने में ज्यादा एनर्जी और टाइम लगता है, तो LPU इसे फास्ट और सस्ता बनाता है.

Image
Groq की चिप्स ज्यादा अच्छा परफॉर्म करती हैं.
AI इंफरेंस को और डिटेल में समझते हैं

AI के दो मुख्य स्टेज होते हैं. ट्रेनिंग और इंफरेंस. क्लाउडफेयर की रिपोर्ट के मुताबिक ट्रेनिंग में मॉडल को डेटा फीड करके पैटर्न सिखाए जाते हैं, जो पैरेलल प्रोसेसिंग की जरूरत होती है. यहां GPU जैसे Nvidia के प्रोडक्ट्स बेस्ट काम करते हैं. लेकिन इंफरेंस में मॉडल तैयार होता है, और इसे रियल-वर्ल्ड डेटा पर अप्लाई किया जाता है. जैसे, एक इमेज रेकग्निशन ऐप में फोटो अपलोड करने पर वो ऑब्जेक्ट डिटेक्ट करता है, ये इंफरेंस है.

इंफरेंस में स्पीड, लेटेंसी और स्केलेबिलिटी महत्वपूर्ण हैं, क्योंकि ये यूजर-फेसिंग ऐप्स में इस्तेमाल होता है. ट्रेडिशनल GPU ट्रेनिंग के लिए ऑप्टिमाइज्ड होते हैं, लेकिन इंफरेंस के लिए वो ओवरकिल हो सकते हैं. पावर यूज करते हैं और महंगे पड़ते हैं. इसलिए, कंपनियां जैसे Groq LPU डेवलप कर रही हैं, जो सिर्फ इंफरेंस के लिए बनी हैं. ये चिप्स बैच प्रोसेसिंग सपोर्ट करती हैं, जहां कई क्वेरीज एक साथ हैंडल की जा सकती हैं. फायदे- कम लेटेंसी (मिलीसेकंड में रिस्पॉन्स), लो एनर्जी कंजम्प्शन और हाई आउटपुट.

उदाहरण के तौर पर, Groq की चिप्स ओपन-वेट मॉडल्स जैसे मेटा, डीपसीक, क्वेन, मिस्ट्रल, गूगल और OpenAI के मॉडल्स को रन करती हैं. इंडस्ट्री में ये शिफ्ट इसलिए हो रहा है क्योंकि AI ट्रेनिंग से ज्यादा इंफरेंस पर फोकस है, जहां कस्टम सिलिकॉन चिप GPU को चैलेंज कर रहा है.

इस डील के इम्प्लिकेशन्स क्या हैं?

सबसे पहले, ये दिखाता है कि AI चिप मार्केट में Nvidia की डॉमिनेंस कम हो रही है. वो अब राइवल्स से टेक्नोलॉजी लाइसेंस करके खुद को मजबूत कर रहे हैं. दूसरा, AI इंडस्ट्री में अक्वी-हायर का ट्रेंड बढ़ रहा है. जहां हार्डवेयर से ज्यादा टैलेंट महत्वपूर्ण है. Groq के इन्वेस्टर्स में सैमसंग, सिस्को, ब्लैकरॉक, नीबर्गर बर्मन, अल्टीमीटर कैपिटल, सोशल कैपिटल और 1789 कैपिटल शामिल हैं. जिसमें डॉनल्ड ट्रंप जूनियर भी पार्टनर हैं.

Groq अमेरिकन इंफ्रास्ट्रक्चर पर फोकस करती है, जो हाई स्पीड और लो कॉस्ट इंफरेंस देती है. ये डील AI इंफरेंस को डेमोक्रेटाइज कर सकती है, मतलब छोटी कंपनियां भी एक्सेस कर सकेंगी. लेकिन चुनौतियां भी हैं. कॉम्पिटिशन से प्राइस वॉर हो सकता है, और एनर्जी कंजम्प्शन जैसे मुद्दे. कुल मिलाकर, ये डील AI के फ्यूचर को शेप कर रही है, जहां इंफरेंस हार्डवेयर सेंटर स्टेज ले रहा है.

वीडियो: एप्पल और माइक्रोसॉफ्ट को पछाड़ Nvidia बनी दुनिया की सबसे बड़ी कंपनी

Advertisement