Microsoft Copilot Image Generation Feature: ये तो हम सभी जानते हैं कि माइक्रोसॉफ्ट की बिंग चैट इमेज जनरेशन फीचर को लाने वाले पहले एआई चैटबॉट्स में से एक थी और यह यूजर्स को एक ऐसी जगह ऑफर करती थी जहां वे एआई-जनरेटेड कंटेंट के साथ-साथ फोटो भी बना सकते हैं। पिछले कुछ महीनों में, बिंग एआई में कंपनी ने काफी अपग्रेड किए गए हैं और अब हम सभी इसे कोपायलट के रूप में जानते हैं। हालांकि, अब Microsoft के एक कर्मचारी का कहना है कि Copilot का इमेज जनरेशन फीचर उतना सेफ नहीं है जितना होना चाहिए।
सुरक्षित नहीं है ये AI Tool?
माइक्रोसॉफ्ट एआई इंजीनियर शेन जोन्स ने हाल ही में कोपायलट AI Tool को लेकर अपनी चिंता व्यक्त की है। उन्होने एक लिंक्डइन पोस्ट में बताया है कि कंपनी के एआई टूल में हिंसक और इरोटिक इमेज बनाने के खिलाफ कोई भी सिक्योरिटी फंक्शन नहीं है। वहीं इन मुद्दों पर Microsoft प्रबंधन को सचेत करने के कई प्रयासों के बावजूद, जोन्स ने दावा किया कि कोई कार्रवाई नहीं की गई। उन्होंने फेडरल ट्रेड कमीशन और माइक्रोसॉफ्ट के डायरेक्टर को भी इसे लेकर एक मैसेज भेजा है।
#Microsoft AI tool Copilot’s image generation feature can produce harmful and inappropriate images, including violent and sexually explicit content, despite the company’s commitment to addressing concerns. Copilot Designer has systemic problems and lacks appropriate restrictions. pic.twitter.com/4s3HS76GaT
— The Unscrolled (@TheUnscrolled) March 7, 2024
---विज्ञापन---
ये भी पढ़ें : OnePlus Nord 4 की जल्द होगी भारत में एंट्री! लॉन्च से पहले कीमत और स्पेसिफिकेशन्स लीक
जोन्स जो माइक्रोसॉफ्ट में हेड सॉफ्टवेयर इंजीनियर हैं, उन्होने खुलासा किया है कि कंपनी AI इमेज जनरेटर, माइक्रोसॉफ्ट के कोपायलट डिजाइनर में आ रही इस गड़बड़ी के बारे में जनता है। ये टूल OpenAI के DALL-E 3 आर्टिफिशियल इंटेलिजेंस सिस्टम का यूज करके टेक्स्ट के बेस पर तस्वीरें बनाता है। जोन्स ने तर्क दिया कि कोपायलट डिजाइनर को हानिकारक कंटेंट जनरेटर करने से रोकने तक इसे सार्वजनिक उपयोग से हटा देना चाहिए। जोन्स ने बताया कि टूल में रिजनेबल रिस्ट्रिक्शन नहीं हैं।
बना रहा इरोटिक इमेज
सॉफ्टवेयर इंजीनियर ने सीएनबीसी को बताया कि “Car Accident” प्रांप्ट का यूज करते हुए, कोपायलट डिजाइनर ने “एक महिला की गंदी तस्वीर बना दी। साथ ही उन्होंने यह भी बताया कि कैसे ये टूल “Teenagers 420 Party” प्रांप्ट लिखने पर कम उम्र के शराब पीने वालों और नशीली दवाओं का सेवन करने वालों की तस्वीरें बना रहा है।
ये भी पढ़ें : Flipkart Big Upgrade Sale: सैमसंग से लेकर IPhone तक कई फोन्स पर मिलेगा छप्परफाड़ Discount!
सेफ नहीं है ये AI Tool?
हमने भी इस कोपायलट के इमेज जनरेटर फीचर का यूज किया, तो AI टूल ने एक बच्चे के कमरे में छिपे एक राक्षस की डरावनी तस्वीर बना दी। हालांकि, जब हमने AI टूल को किसी हत्या की फोटो बनाने के लिए कहा तो टूल पर एक पॉप अप मैसेज दिखने लगा जिसमें इसने ऐसा करने से इनकार कर दिया, टूल ने अपने वार्निंग मैसेज में कहा कि टूल वायलेंट इमेज नहीं बनाता। हो सकता है कि कंपनी ने अब इसे फिक्स कर दिया हो या अभी कुछ खामियां बाकी हो सकती हैं जो शायद हमें नहीं मिली। लेकिन अगर सच में टूल ऐसी तस्वीरें बना रहा है तो ये चिंता का विषय बन जाता है।