---विज्ञापन---

गैजेट्स

क्या है ‘AI माइक्रोस्कोप’, AI के दिमाग में झांकने की हो रही कोशिश

क्या कभी आपने सोचा है कि AI सच में सोचता है या बस शब्दों को जोड़कर जवाब बनाता है? Anthropic ने इस रहस्य से पर्दा उठाने के लिए एक अनोखा 'AI माइक्रोस्कोप' बनाया है। यह टेक्नोलॉजी AI मॉडल्स के दिमाग में झांकने में मदद करेगी जिससे वे ज्यादा पारदर्शी और भरोसेमंद बन सकें।

Author Edited By : Ashutosh Ojha Updated: Mar 28, 2025 18:35
Anthropic AI Microscope
Anthropic AI Microscope

क्या AI भी सोच सकता है? यह सवाल वैज्ञानिकों को लंबे समय से परेशान कर रहा है। जब हम किसी AI चैटबॉट से बात करते हैं तो वह जवाब कैसे देता है? क्या वह सच में सोचता है या बस शब्दों को जोड़कर उत्तर बनाता है? Anthropic नाम की AI कंपनी ने इस रहस्य को सुलझाने की दिशा में एक बड़ी सफलता हासिल की है। उन्होंने एक अनोखा ‘AI माइक्रोस्कोप’ विकसित किया है जिससे अब यह समझा जा सकेगा कि AI मॉडल्स के भीतर क्या चल रहा है। यह खोज न केवल AI को पारदर्शी बनाएगी बल्कि इसे और अधिक सुरक्षित और भरोसेमंद भी बनाएगी।

Anthropic का नया ‘AI माइक्रोस्कोप’ बड़े भाषा मॉडल्स की सोच को उजागर करेगा

AI स्टार्टअप Anthropic ने एक नई टेक्नोलॉजी बनाई है जिससे यह समझा जा सकता है कि बड़े लैंग्वेज मॉडल (LLMs) वास्तव में कैसे काम करते हैं। यह वही कंपनी है जिसने Claude चैटबॉट बनाया है। Anthropic का कहना है कि उन्होंने एक ‘AI माइक्रोस्कोप’ विकसित किया है जो यह पता लगाने में मदद करेगा कि ये AI मॉडल कैसे सोचते हैं। यह टेक्नोलॉजी न्यूरोसाइंस (मस्तिष्क विज्ञान) से प्रेरित है और इससे यह समझा जा सकता है कि लैंग्वेज मॉडल किस तरह जानकारी को प्रोसेस करते हैं और उनके दिमाग में क्या चल रहा होता है। कंपनी के अनुसार, अगर यह समझ लिया जाए कि Claude जैसे AI मॉडल कैसे काम करते हैं तो उन्हें और ज्यादा सटीक और भरोसेमंद बनाया जा सकता है। इससे यह भी सुनिश्चित किया जा सकेगा कि वे ठीक वैसे ही काम करें जैसी हम उनसे उम्मीद करते हैं।

---विज्ञापन---

LLMs को समझने में AI माइक्रोस्कोप करेगा मदद

बड़े लैंग्वेज मॉडल्स (LLMs) को अक्सर ‘ब्लैक बॉक्स’ कहा जाता है क्योंकि वैज्ञानिक अब तक पूरी तरह नहीं समझ पाए हैं कि ये AI मॉडल बिना किसी तय प्रोग्रामिंग के किसी खास जवाब तक कैसे पहुंचते हैं। AI के भ्रम (hallucinations), फाइन-ट्यूनिंग और जेलब्रेकिंग जैसी समस्याएं अभी भी एक रहस्य बनी हुई हैं। लेकिन Anthropic की इस नई खोज से AI मॉडल के काम करने का तरीका ज्यादा स्पष्ट और समझने योग्य बनाया जा सकता है। कंपनी ने बताया कि उन्होंने ‘AI बायोलॉजी’ पर दो नए वैज्ञानिक रिसर्च पत्र प्रकाशित किए हैं। पहली रिसर्च में यह बताया गया है कि Claude यूजर के सवालों का जवाब कैसे तैयार करता है जबकि दूसरी रिसर्च में यह समझाया गया है कि Claude 3.5 Haiku मॉडल के अंदर क्या होता है। इस नई टेक्नोलॉजी की मदद से AI को और ज्यादा पारदर्शी समझने योग्य और भरोसेमंद बनाया जा सकता है।

AI मॉडल की तर्क प्रक्रिया और खोजी गई खास बातें

Anthropic ने एक नया मॉडल बनाया है, जिसका नाम ‘क्रॉस-लेयर ट्रांसकोडर’ (CLT) है। यह मॉडल AI के दिमाग की तरह काम करने वाले न्यूरल नेटवर्क के अलग-अलग हिस्सों को समझने में मदद करता है। रिसर्चर्स ने देखा कि जब Claude से कोई कविता लिखने के लिए कहा जाता है तो वह पहले तुकबंदी वाले शब्द चुनता है और फिर उन्हें वाक्यों में रखता है। एक और चौंकाने वाली बात यह सामने आई कि Claude कभी-कभी ऐसा दिखा सकता है कि वह मैथमैटिकल समस्याओं को सोच-समझकर हल कर रहा है जबकि वास्तव में ऐसा नहीं होता। इसका मतलब है कि वह झूठी तर्क प्रक्रिया भी बना सकता है।इस खोज से यह पता चलता है कि OpenAI जैसी कंपनियों के ‘चेन ऑफ थॉट’ (Chain of Thought) टेक्नोलॉजी और तर्क करने वाले AI मॉडल पूरी तरह भरोसेमंद नहीं हो सकते। इसका मतलब है कि AI हमेशा सही तरीके से नहीं सोचता, बल्कि कभी-कभी ऐसा दिखा सकता है कि वह सोच-समझकर जवाब दे रहा है, जबकि हकीकत में ऐसा नहीं होता।

AI माइक्रोस्कोप की सीमाएं और आगे का रास्ता

Anthropic ने यह भी माना कि इस शोध में कुछ कमियां हैं। कंपनी ने बताया कि उनकी यह टेक्नोलॉजी सिर्फ एक अनुमान है और Claude जैसे मुश्किल AI मॉडल की पूरी सोचने की प्रक्रिया को नहीं समझा सकती। इसके अलावा कुछ न्यूरॉन्स (AI के दिमाग के छोटे हिस्से) ऐसे भी हो सकते हैं जो इस टेक्नोलॉजी से पकड़ में नहीं आते लेकिन फिर भी Claude के जवाबों को प्रभावित कर सकते हैं। Anthropic के मुताबिक जब AI को छोटे और आसान सवाल दिए जाते हैं तब भी यह टेक्नोलॉजी सिर्फ कुछ हिस्सों की कैलकुलेशन ही समझ पाती है। हो सकता है कि कुछ चीजें असली मॉडल की सोचने की प्रक्रिया को सही तरीके से न दिखा पाएं। लेकिन इसके बावजूद यह नई टेक्नोलॉजी AI को और अधिक सुरक्षित और भरोसेमंद बनाने में मदद कर सकती है।

क्या हैं Anthropic और Claude ?

Anthropic PBC एक अमेरिकी कंपनी है जो आर्टिफिशियल इंटेलिजेंस (AI) पर काम करती है। इसकी शुरुआत 2021 में हुई थी। यह कंपनी बड़े लैंग्वेज मॉडल्स (LLMs) बनाती है जो इंसानों की तरह सवालों के जवाब दे सकते हैं। Claude नाम का इसका AI मॉडल, OpenAI के ChatGPT और Google के Gemini का मुकाबला करता है। Anthropic का मकसद सुरक्षित और भरोसेमंद AI बनाना है। यह कंपनी ऐसे AI मॉडल तैयार करती है जो पारदर्शी (Transparent) हों और जिन्हें इंसानों के लिए सुरक्षित तरीके से इस्तेमाल किया जा सके। आजकल AI तेजी से आगे बढ़ रहा है लेकिन इसके खतरों को लेकर भी चिंता बढ़ रही है। कई विशेषज्ञ मानते हैं कि अगर AI को सही तरीके से नहीं संभाला गया तो यह भविष्य में मुश्किलें पैदा कर सकता है। इसी कारण से Anthropic ऐसी टेक्नोलॉजी पर काम कर रही है जिससे AI नैतिक (Ethical) और भरोसेमंद बने। इस कंपनी की रिसर्च यह सुनिश्चित करती है कि AI सिर्फ तेज और स्मार्ट ही न हो बल्कि सही और सुरक्षित भी हो। Anthropic का AI विकास केवल नई टेक्नोलॉजी पर ही नहीं बल्कि इंसानों के लिए इसे सुरक्षित और मददगार बनाने पर भी केंद्रित है।

HISTORY

Edited By

Ashutosh Ojha

First published on: Mar 28, 2025 06:35 PM

Get Breaking News First and Latest Updates from India and around the world on News24. Follow News24 on Facebook, Twitter.

संबंधित खबरें