---विज्ञापन---

गैजेट्स

Google का Deep Think मोड, Gemini 2.5 में AI को मिली इंसानी सोच और आवाज

Google I/O 2025 में गूगल ने AI की दुनिया में तहलका मचा दिया है। नए Gemini 2.5 मॉडल में Deep Think मोड और इंसानी आवाज जैसी खूबियां आई हैं, जो AI को और भी ज्यादा स्मार्ट, तेज और इंसान जैसा बना देती हैं। आइए जानते हैं इन नए फीचर्स के बारे में।

Author Edited By : Ashutosh Ojha Updated: May 25, 2025 18:38
Google I_O 2025
Google I_O 2025

गूगल ने अपने सबसे बड़े टेक इवेंट Google I/O 2025 में ऐसा धमाका किया है, जिससे आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में एक नया दौर शुरू हो गया है। इस बार गूगल ने अपने Gemini 2.5 AI मॉडल्स में कई जबरदस्त और दिलचस्प फीचर्स जोड़े हैं। अब ये मॉडल पहले से कहीं ज्यादा समझदार, तेज और इंसानों जैसे हो गए हैं। नए फीचर्स जैसे Deep Think मोड, Native Audio Output और Flash मॉडल अपग्रेड ने सबका ध्यान खींचा है। आइए जानते हैं ये AI अब क्या-क्या कर सकता है।

सबसे खास फीचर है ‘Deep Think मोड’

गूगल ने अपने सालाना प्रोग्राम Google I/O 2025 में Gemini 2.5 सीरीज के आर्टिफिशियल इंटेलिजेंस (AI) मॉडल्स के लिए कई नए और शानदार फीचर्स लॉन्च किए हैं। इनमें सबसे खास फीचर है “Deep Think मोड”। यह फीचर Gemini 2.5 Pro मॉडल को पहले से भी ज्यादा समझदार और सोचने में तेज बना देता है। Deep Think मोड की मदद से अब यह AI किसी भी सवाल का जवाब देने से पहले अच्छी तरह सोचता है, अलग-अलग संभावनाओं पर ध्यान देता है और फिर सबसे सही जवाब देता है। गूगल का कहना है कि यह नई सोचने की टेक्नोलॉजी पुराने तरीकों से काफी अलग है। इसमें नई और बेहतर रिसर्च टेक्नोलॉजी का इस्तेमाल किया गया है, जिससे AI अब पहले से ज्यादा होशियार हो गया है।

---विज्ञापन---

टेस्टिंग में Deep Think ने हासिल किए बेहतरीन नंबर

गूगल ने बताया है कि Deep Think मोड अभी टेस्टिंग के दौर में है। फिलहाल इसे सिर्फ कुछ खास लोगों को ही API के जरिए इस्तेमाल करने दिया गया है। अब तक इस मोड ने कई मुश्किल टेस्ट में अच्छे नंबर लाए हैं। उदाहरण के लिए इसने 2025 के UAMO मैथ टेस्ट में 49.4% अंक हासिल किए। यह टेस्ट बहुत ही कठिन माना जाता है। इसके अलावा यह AI मॉडल LiveCodeBench और MMMU जैसे दूसरे टेस्ट में भी बहुत अच्छा प्रदर्शन कर रहा है। गूगल अभी इस मोड की सुरक्षा की पूरी तरह जांच कर रहा है और विशेषज्ञों (experts) से सलाह भी ले रहा है, ताकि इसे और बेहतर और सुरक्षित बनाया जा सके।

Native Audio Output से AI बोलेगा इंसानों की तरह

गूगल ने एक और नया फीचर लॉन्च किया है, जिसका नाम है Native Audio Output यह फीचर AI को इंसानों जैसी आवाज में बोलने की ताकत देता है। यह फीचर Live API के जरिए डेवलपर्स को मिलेगा, यानी जो लोग ऐप या सॉफ्टवेयर बनाते हैं, वे इसका इस्तेमाल कर सकेंगे। इसमें यूजर ये तय कर सकता है कि AI किस टोन (आवाज के लहजे) में बोले, कैसे उच्चारण करे और उसकी बोलने की स्टाइल कैसी हो। इस फीचर में तीन खास बातें शामिल हैं…

  • Affective Dialogue: यह AI यूजर की भावनाओं को समझकर उसी हिसाब से जवाब देता है।
  • Proactive Audio: यह AI सिर्फ यूजर की आवाज पर ध्यान देता है और बैकग्राउंड की आवाजों को नजरअंदाज करता है।
  • Thinking: इस फीचर में AI सोचते हुए बोलता है, यानी जैसे इंसान बोलते वक्त सोचते हैं, वैसे ही यह भी बोलेगा।

Gemini Flash को मिला नया रूप और नए डेवलपर टूल्स

गूगल ने यह भी बताया कि अब Gemini 2.5 Flash मॉडल को और बेहतर बना दिया गया है। अब यह मॉडल पहले से ज्यादा स्मार्ट, तेज और 20-30% कम टोकन (यानी डेटा खर्च) करता है। Flash मॉडल अब लंबी बातचीत को बेहतर ढंग से समझ सकता है, कोडिंग में मदद कर सकता है और टेक्स्ट, आवाज और तस्वीरों को एक साथ समझने की ताकत रखता है। अभी यह मॉडल Google AI Studio पर ट्रायल (यानि प्रिव्यू) के रूप में दिया गया है। लेकिन जून महीने में इसे सभी के लिए पूरी तरह से उपलब्ध कर दिया जाएगा। इसके अलावा गूगल की Vertex AI नाम की सेवा के जरिए कंपनियां भी इस मॉडल का इस्तेमाल कर सकेंगी। इस नए वर्जन में दो नए आसान फीचर भी जोड़े गए हैं…

  • Thought Summary: यह फीचर बताता है कि AI ने जवाब सोचते वक्त क्या-क्या विचार किया।
  • Thinking Budget: इसमें डेवलपर्स तय कर सकते हैं कि AI एक सवाल पर कितना समय और पावर लगाए।

First published on: May 25, 2025 10:30 AM

Get Breaking News First and Latest Updates from India and around the world on News24. Follow News24 on Facebook, Twitter.

संबंधित खबरें