---विज्ञापन---

गैजेट्स

क्या है ‘AI माइक्रोस्कोप’, AI के दिमाग में झांकने की हो रही कोशिश

क्या कभी आपने सोचा है कि AI सच में सोचता है या बस शब्दों को जोड़कर जवाब बनाता है? Anthropic ने इस रहस्य से पर्दा उठाने के लिए एक अनोखा 'AI माइक्रोस्कोप' बनाया है। यह टेक्नोलॉजी AI मॉडल्स के दिमाग में झांकने में मदद करेगी जिससे वे ज्यादा पारदर्शी और भरोसेमंद बन सकें।

Author Published By : Ashutosh Ojha Updated: Mar 28, 2025 18:35
Anthropic AI Microscope
Anthropic AI Microscope

क्या AI भी सोच सकता है? यह सवाल वैज्ञानिकों को लंबे समय से परेशान कर रहा है। जब हम किसी AI चैटबॉट से बात करते हैं तो वह जवाब कैसे देता है? क्या वह सच में सोचता है या बस शब्दों को जोड़कर उत्तर बनाता है? Anthropic नाम की AI कंपनी ने इस रहस्य को सुलझाने की दिशा में एक बड़ी सफलता हासिल की है। उन्होंने एक अनोखा ‘AI माइक्रोस्कोप’ विकसित किया है जिससे अब यह समझा जा सकेगा कि AI मॉडल्स के भीतर क्या चल रहा है। यह खोज न केवल AI को पारदर्शी बनाएगी बल्कि इसे और अधिक सुरक्षित और भरोसेमंद भी बनाएगी।

Anthropic का नया ‘AI माइक्रोस्कोप’ बड़े भाषा मॉडल्स की सोच को उजागर करेगा

AI स्टार्टअप Anthropic ने एक नई टेक्नोलॉजी बनाई है जिससे यह समझा जा सकता है कि बड़े लैंग्वेज मॉडल (LLMs) वास्तव में कैसे काम करते हैं। यह वही कंपनी है जिसने Claude चैटबॉट बनाया है। Anthropic का कहना है कि उन्होंने एक ‘AI माइक्रोस्कोप’ विकसित किया है जो यह पता लगाने में मदद करेगा कि ये AI मॉडल कैसे सोचते हैं। यह टेक्नोलॉजी न्यूरोसाइंस (मस्तिष्क विज्ञान) से प्रेरित है और इससे यह समझा जा सकता है कि लैंग्वेज मॉडल किस तरह जानकारी को प्रोसेस करते हैं और उनके दिमाग में क्या चल रहा होता है। कंपनी के अनुसार, अगर यह समझ लिया जाए कि Claude जैसे AI मॉडल कैसे काम करते हैं तो उन्हें और ज्यादा सटीक और भरोसेमंद बनाया जा सकता है। इससे यह भी सुनिश्चित किया जा सकेगा कि वे ठीक वैसे ही काम करें जैसी हम उनसे उम्मीद करते हैं।

---विज्ञापन---

LLMs को समझने में AI माइक्रोस्कोप करेगा मदद

बड़े लैंग्वेज मॉडल्स (LLMs) को अक्सर ‘ब्लैक बॉक्स’ कहा जाता है क्योंकि वैज्ञानिक अब तक पूरी तरह नहीं समझ पाए हैं कि ये AI मॉडल बिना किसी तय प्रोग्रामिंग के किसी खास जवाब तक कैसे पहुंचते हैं। AI के भ्रम (hallucinations), फाइन-ट्यूनिंग और जेलब्रेकिंग जैसी समस्याएं अभी भी एक रहस्य बनी हुई हैं। लेकिन Anthropic की इस नई खोज से AI मॉडल के काम करने का तरीका ज्यादा स्पष्ट और समझने योग्य बनाया जा सकता है। कंपनी ने बताया कि उन्होंने ‘AI बायोलॉजी’ पर दो नए वैज्ञानिक रिसर्च पत्र प्रकाशित किए हैं। पहली रिसर्च में यह बताया गया है कि Claude यूजर के सवालों का जवाब कैसे तैयार करता है जबकि दूसरी रिसर्च में यह समझाया गया है कि Claude 3.5 Haiku मॉडल के अंदर क्या होता है। इस नई टेक्नोलॉजी की मदद से AI को और ज्यादा पारदर्शी समझने योग्य और भरोसेमंद बनाया जा सकता है।

AI मॉडल की तर्क प्रक्रिया और खोजी गई खास बातें

Anthropic ने एक नया मॉडल बनाया है, जिसका नाम ‘क्रॉस-लेयर ट्रांसकोडर’ (CLT) है। यह मॉडल AI के दिमाग की तरह काम करने वाले न्यूरल नेटवर्क के अलग-अलग हिस्सों को समझने में मदद करता है। रिसर्चर्स ने देखा कि जब Claude से कोई कविता लिखने के लिए कहा जाता है तो वह पहले तुकबंदी वाले शब्द चुनता है और फिर उन्हें वाक्यों में रखता है। एक और चौंकाने वाली बात यह सामने आई कि Claude कभी-कभी ऐसा दिखा सकता है कि वह मैथमैटिकल समस्याओं को सोच-समझकर हल कर रहा है जबकि वास्तव में ऐसा नहीं होता। इसका मतलब है कि वह झूठी तर्क प्रक्रिया भी बना सकता है।इस खोज से यह पता चलता है कि OpenAI जैसी कंपनियों के ‘चेन ऑफ थॉट’ (Chain of Thought) टेक्नोलॉजी और तर्क करने वाले AI मॉडल पूरी तरह भरोसेमंद नहीं हो सकते। इसका मतलब है कि AI हमेशा सही तरीके से नहीं सोचता, बल्कि कभी-कभी ऐसा दिखा सकता है कि वह सोच-समझकर जवाब दे रहा है, जबकि हकीकत में ऐसा नहीं होता।

AI माइक्रोस्कोप की सीमाएं और आगे का रास्ता

Anthropic ने यह भी माना कि इस शोध में कुछ कमियां हैं। कंपनी ने बताया कि उनकी यह टेक्नोलॉजी सिर्फ एक अनुमान है और Claude जैसे मुश्किल AI मॉडल की पूरी सोचने की प्रक्रिया को नहीं समझा सकती। इसके अलावा कुछ न्यूरॉन्स (AI के दिमाग के छोटे हिस्से) ऐसे भी हो सकते हैं जो इस टेक्नोलॉजी से पकड़ में नहीं आते लेकिन फिर भी Claude के जवाबों को प्रभावित कर सकते हैं। Anthropic के मुताबिक जब AI को छोटे और आसान सवाल दिए जाते हैं तब भी यह टेक्नोलॉजी सिर्फ कुछ हिस्सों की कैलकुलेशन ही समझ पाती है। हो सकता है कि कुछ चीजें असली मॉडल की सोचने की प्रक्रिया को सही तरीके से न दिखा पाएं। लेकिन इसके बावजूद यह नई टेक्नोलॉजी AI को और अधिक सुरक्षित और भरोसेमंद बनाने में मदद कर सकती है।

क्या हैं Anthropic और Claude ?

Anthropic PBC एक अमेरिकी कंपनी है जो आर्टिफिशियल इंटेलिजेंस (AI) पर काम करती है। इसकी शुरुआत 2021 में हुई थी। यह कंपनी बड़े लैंग्वेज मॉडल्स (LLMs) बनाती है जो इंसानों की तरह सवालों के जवाब दे सकते हैं। Claude नाम का इसका AI मॉडल, OpenAI के ChatGPT और Google के Gemini का मुकाबला करता है। Anthropic का मकसद सुरक्षित और भरोसेमंद AI बनाना है। यह कंपनी ऐसे AI मॉडल तैयार करती है जो पारदर्शी (Transparent) हों और जिन्हें इंसानों के लिए सुरक्षित तरीके से इस्तेमाल किया जा सके। आजकल AI तेजी से आगे बढ़ रहा है लेकिन इसके खतरों को लेकर भी चिंता बढ़ रही है। कई विशेषज्ञ मानते हैं कि अगर AI को सही तरीके से नहीं संभाला गया तो यह भविष्य में मुश्किलें पैदा कर सकता है। इसी कारण से Anthropic ऐसी टेक्नोलॉजी पर काम कर रही है जिससे AI नैतिक (Ethical) और भरोसेमंद बने। इस कंपनी की रिसर्च यह सुनिश्चित करती है कि AI सिर्फ तेज और स्मार्ट ही न हो बल्कि सही और सुरक्षित भी हो। Anthropic का AI विकास केवल नई टेक्नोलॉजी पर ही नहीं बल्कि इंसानों के लिए इसे सुरक्षित और मददगार बनाने पर भी केंद्रित है।

First published on: Mar 28, 2025 06:35 PM

संबंधित खबरें