Explainer Internet is Full of Deepfake Bollywood Porn: एक्ट्रेस रश्मिका मंदाना के छेड़छाड़ किए गए वीडियो ने भारत में Deepfake से पैदा होने वाले खतरों पर बहस छेड़ दी है, लेकिन ऐसा नहीं है कि रश्मिका मंदाना पहली ऐसी शख्सियत हैं, जो आर्टिफिशियल इंटेलिजेंस (AI) टूल का यूज करके बनाई गई डीपफेक की शिकार हुई हैं। इंटरनेट पर कई बॉलीवुड एक्ट्रेस के डीपफेक पोर्न से भरा हुआ है।
मशहूर हस्तियों की डीपफेक पोर्नोग्राफी अब सोशल मीडिया पर मिलना आम बात है, जो कभी इंटरनेट पर छिपी रहती थी। इंडिया टुडे की ओपन सोर्स इन्वेस्टिगेशंस (OSINT) टीम की ओर से की गई एक जांच में सोशल मीडिया प्लेटफॉर्म एक्स पर कई डीपफेक फोटो और वीडियो पाए गए हैं। इनमें बॉलीवुड की कई एक्ट्रेसेज की नकली अश्लील वीडियोज और फोटोज भी शामिल हैं।
सोशल मीडिया पर वायरल इन फोटो और वीडियो में छेड़छाड़ की जाती है। मूल वीडियो में शामिल एक्टर या एक्ट्रेस पर किसी मशहूर शख्सियत की फोटो लगा दी जाती है। फिर इनका डीपफेक पोर्न बनाया जाता है। एआई टूल इतने स्मार्ट हो गए हैं कि वे इतनी कुशलता से डीपफेक बनाते हैं कि वास्तविक और छेड़छाड़ किए गए वीडियो में फर्क कर पाना काफी मुश्किल होता है।
इंटरनेट पर ऐसे वीडियो पर आते हैं लाखों व्यू
सोशल मीडिया पर डीपफेक पोर्न फैलाने वाले अकाउंट्स की संख्या काफी ज्यादा है, लेकिन जांच में एक स्पेशल अकाउंट मिला, जिसमें सेलिब्रिटी के चेहरों के साथ वीडियो को मिक्स कर मॉर्फ्ड वीडियो पोस्ट किया गया है। इनमें से कुछ वीडियो को एक्स पर 6 लाख से अधिक बार देखा गया है।
यह भी पढ़ेंः Rubina Dilaik ने लगाई ट्रोलर्स की क्लास, एक्ट्रेस बोलीं- जाओ, दफा हो जाओ
हालांकि, ये सिर्फ एक्स या ट्विटर तक ही सीमित नहीं हैं। ऐसे वीडियोज और फोटोज इंस्टाग्राम और फेसबुक पर भी काफी हैं। इंडिया टुडे की जांच में इंस्टाग्राम पर कई अकाउंट्स ऐसे मिले हैं जहां डीपफेक फोटोज और वीडियोज की भरमार है।
प्रारंभिक जांच में ऐसा लगता है कि इन अकाउंट्स को नौसिखिए लोग चलाते हैं, जो डीपफेक फोटोज और वीडियोज बनाने के लिए AI टूल्स का गलत इस्तेमाल करते हैं। ऐसे में सवाल उठता है कि आम लोग इस तरह की पेशेवर डीपफेक कंटेंट कैसे बना रहे हैं।
इंडिया टुडे ने ‘डीपन्यूड’ ऐप्स की भूमिका की खोज के लिए सोशल मीडिया साइटों को खंगाला, जो हाई क्वालिटी वाले डीपफेक रिजल्ट देने के लिए जेनरेटिव एआई मॉडल का इस्तेमाल करते हैं। ऐसे कई ऐप्स और वेब ऐप्स ऑनलाइन उपलब्ध हैं, लेकिन जांच के दौरान सामने आए कई वीडियो ‘undress.app’ से बनाए गए थे।
#Deepfake Row
After #RashmikaMandanna's video, now a deepfake picture of actress #KatrinaKaif surfaces.
Notice has been issued to all platforms that follow rules or lose legal protection, says IT Minister Ashwini Vaishnaw.@kritsween shares more details. pic.twitter.com/nZYnfir4rw
— TIMES NOW (@TimesNow) November 7, 2023
आसान टूल्स के कारण खतरनाक हुआ सॉफ्टवेयर
फेक पॉर्न कंटेट बनाने के लिए आसान टूल्स की उपलब्धता इसके खतरनाक नेचर को दिखाती है। इससे किसी का भी डीपफेक पॉर्न कंटेट बनाना आसान है। ये खतरा महिलाओं के लिए विशेष रूप से गंभीर है। डीपफेक पर नजर रखने वाली कंपनी सेंसिटी एआई के 2019 के अध्ययन के अनुसार दुनिया भर में 96 प्रतिशत डीपफेक फोटो अश्लील हैं और उनमें से 99 प्रतिशत महिलाओं के हैं।
रिपोर्ट्स के मुताबिक अब डीपफेक बनाने के लिए मशीन लर्निंग की जरूरत नहीं है। ऐप्पल और गूगल ऐप स्टोर पर उपलब्ध ‘फेस स्वैप’ ऐप्स ने इन्हें और ज्यादा आसान बना दिया है।
How much technology is being misused, stop defaming Rashmika Mandanna 👎#deepfake #RashmikaMandanna pic.twitter.com/kzZfWJqCnQ
— Radhika Chaudhary (@Radhika8057) November 6, 2023
क्या करते हैं कानूनी विशेषज्ञ?
सुप्रीम कोर्ट के वकील और तकनीकी-कानूनी विशेषज्ञ विजय सरदाना ने मीडिया रिपोर्ट्स के हवाले से बताया कि इसका सीधा जवाब है, भारत में इस खतरे से निपटने के लिए खास कानूनों की कमी। हालांकि डीपफेक सामग्री से निपटने के लिए भारतीय कानूनों में कुछ प्रावधान हैं, लेकिन यहां दिक्कत डीपफेक बनाने वालों की असली पहचान करना है। प्रमुख इंटरनेट कंपनियों के सर्वर भारत से बाहर हैं और वहां लागू कानून इन्हें कंट्रोल करते हैं। हालांकि, कोई भी पीड़ित आईटी अधिनियम, 2000 की धारा 66ई, धारा 66डी और भारतीय कॉपीराइट अधिनियम, 1957 की धारा 51 के प्रावधानों के तहत पुलिस में शिकायत दर्ज कर सकता है।