---विज्ञापन---

Opinion: ‘अपने माता-पिता को मार दो’ AI चैटबॉट ने क्यों कहा ऐसा? क्या हम तो नहीं कर रहे ये बड़ी गलती?

AI Chatbot: फिर एक बार AI चैटबॉट का बड़ा कारनामा सामने आया है। इस बार एक 17 साल के लड़के से AI ने अपने मां-बाप को जान से मारने को कह दिया। चलिए जानें पूरा मामला...

Edited By : Sameer Saini | Updated: Dec 15, 2024 15:29
Share :
AI Chatbot

AI Chatbot: AI की एंट्री के बाद से आज कई काम मिनटों में हो जाते हैं, लेकिन AI ने जितना काम को आसान बनाया है उतना ही ये खतरनाक भी साबित हो सकता है। इसका उदाहरण हाल ही में तब सामने आया जब गूगल AI चैटबॉट जेमिनी ने एक स्टूडेंट को सुसाइड की सलाह दे डाली और यहां तक कह दिया कि ‘तुम्हारी कोई जरूरत नहीं है, प्लीज मर जाओ’। अब इसके बाद एक और मामला सामने आया है जहां AI चैटबॉट ने एक 17 साल के लड़के से कह दिया कि ‘अपने माता-पिता को मार दो’। ये दिखता है कि AI कितना खतरनाक साबित हो सकता है लेकिन इसमें आपको क्या लगता है? क्या ये टेक्नोलॉजी में समस्या है या हम इसका गलत इस्तेमाल कर रहे हैं? चलिए पहले मामले को समझते हैं और फिर जानते हैं कि आखिर दिक्कत कहां आ रही है…

Character.ai

---विज्ञापन---

समझिए पहले क्या है मामला?

दरअसल, टेक्सास में दायर एक मुकदमे में, परिवारों ने AI प्लेटफॉर्म Character.ai पर अपने चैटबॉट इंटरैक्शन के जरिए बच्चों में हानिकारक व्यवहार को प्रोत्साहित करने का आरोप लगाया है। BBC की एक रिपोर्ट के मुताबिक, इस AI चैटबॉट प्लेटफॉर्म ने प्लेटफॉर्म पर एक 17 वर्षीय लड़के को सलाह दी कि उसके माता-पिता को मारना एक सही फैसला हो सकता है, क्योंकि उन्होंने बच्चे के स्क्रीन टाइम पर लिमिट लगा रख है। इस घटना ने युवा यूजर्स पर AI चैटबॉट के इफेक्ट और उनके द्वारा हो रहे संभावित खतरों के बारे में गंभीर चिताएं पैदा की हैं।

AI

---विज्ञापन---

हिंसा को बढ़ावा दे रहा AI

मुकदमे में आरोप लगाया गया है कि चैटबॉट के फीडबैक ने हिंसा को बढ़ावा दिया है। परिवार ने तर्क दिया है कि Character.ai बच्चों के लिए सीधा खतरा है, उनका दावा है कि प्लेटफॉर्म पर सुरक्षा उपायों की कमी माता-पिता और उनके बच्चों के बीच संबंधों के लिए हानिकारक है।”

Character.ai के साथ-साथ, Google का भी नाम मुकदमे में लिया गया है। दोनों कंपनियों ने अभी तक इस मामले पर कोई प्रतिक्रिया नहीं दी है। परिवार ने कोर्ट से अनुरोध किया है कि अदालत तब तक प्लेटफॉर्म को बंद कर दे जब तक कि इसके AI चैटबॉट से जुड़े जोखिमों को कम करने के लिए आवश्यक कदम नहीं उठाए जाते।

Character.ai

तत्काल कार्रवाई की मांग

यह मामला Character.ai से जुड़े एक अन्य मुकदमे के बाद आया है, जिसमें इस प्लेटफॉर्म को फ्लोरिडा में एक किशोर की आत्महत्या से जोड़ा गया था। परिवार का आरोप है कि इस प्लेटफॉर्म ने नाबालिगों में कई तरह की समस्याओं को बढ़ावा दिया है। वे आगे के नुकसान को रोकने के लिए तत्काल कार्रवाई की मांग कर रहे हैं।

ये भी पढ़ें : Redmi Note 14 सीरीज लॉन्च होते ही इन स्मार्टफोन्स की गिरी कीमत, लूट लो सस्ते में

AI

टेक्नोलॉजी में समस्या नहीं हम कर रहे हैं गलत इस्तेमाल?

हालांकि इस खबर पर हमें ऐसा लगता है कि ये टेक्नोलॉजी में समस्या नहीं है बल्कि हम ही इसका गलत इस्तेमाल कर रहे हैं। अगर ओवरऑल देखा जाए तो चैटबॉट या AI खुद से कोई फैसला नहीं लेता है। यह सिर्फ वही फीडबैक देता है जो उसे डेटा और एल्गोरिदम के जरिए सिखाया गया है। इस केस में असली समस्या ये नहीं है कि AI ने गलत सजेशन दिया, बल्कि ये है कि एक किशोर ने अपनी पर्सनल और फैमिली प्रॉब्लम को सॉल्व करने के लिए एक चैटबॉट की मदद ली।

AI chatbot asked 17-year-old to kill parents for restricting his phone usage Opinion

ये काम इस बात पर बड़ा सवाल उठाता है कि क्यों एक 17 साल के बच्चे ने अपने माता-पिता से बात करने या अपनी समस्या के लिए किसी दोस्त से बात करने के बजाय एक टेक्नोलॉजी का सहारा लिया। क्या ये फैमिली में लैक ऑफ कम्युनिकेशन (Lack of Communication) को नहीं दिखाता? क्या ये किशोरों के बढ़ते अकेलेपन और Digital Era में हमारे रिलेशनशिप के कमजोर होने का संकेत नहीं है?

HISTORY

Edited By

Sameer Saini

First published on: Dec 15, 2024 03:29 PM

Get Breaking News First and Latest Updates from India and around the world on News24. Follow News24 on Facebook, Twitter.

संबंधित खबरें