The Lallantop

एक लाख से भी ज्यादा महिलाओं की 'नग्न' तस्वीरें इंटरनेट पर पहुंचाने वाला कौन है?

इनमें से कई तस्वीरें नाबालिग लड़कियों की भी हैं.

post-main-image
'डीपफेक' नाम की इस तकनीक के सहारे आम लोगों की तस्वीरें मॉर्फ़ और एडिट की जा रही हैं. (सांकेतिक तस्वीर)
आप अपने सोशल मीडिया पर एक तस्वीर शेयर करें. दोस्तों के बीच या फिर पब्लिक प्रोफाइल पर. ये तस्वीर कैसी भी हो सकती है. किसी टूरिस्ट डेस्टिनेशन पर या फिर वैसे ही कोई हंसती-खेलती सी फोटो. डालने के बाद आपको अगर ये पता चले कि इस तस्वीर का इस्तेमाल किसी और ने किया, और इसे न्यूड इमेज के तौर पर एडिट करके लोगों को भेज दिया, तो..
डरावना है न?
कुछ ऐसा ही हो रहा है एक नए आर्टिफिशियल इंटेलिजेंस बॉट के सहारे. एक साइबर रिसर्च कंपनी ने पता लगाया है कि एक लाख से भी अधिक महिलाओं-लड़कियों की ऐसी फेक न्यूड तस्वीरें जेनरेट की जा चुकी हैं. रीसर्च करने वाली नीदरलैंड्स की इस कंपनी का नाम सेंसिटी (Sensity) है.
'हिन्दुस्तान टाइम्स' में छपी रिपोर्ट के मुताबिक़, जिनकी तस्वीरें टार्गेट की गई हैं, वो महिलाएं अधिकतर रशिया से हैं.  सेंसिटी की जांच में सामने आया कि पिछले तीन महीनों में इस तरह की तस्वीरों में 200 फ़ीसद की बढ़त हुई है.
Blurred Portrait Photo Of Woman 3326738 रिसर्च में डरा देने वाले तथ्य सामने आए हैं. (सांकेतिक तस्वीर)


क्या होता है इस बॉट के ज़रिए?
जहां पर ये बॉट उपलब्ध है, उसका नाम छुपाया गया है, ताकि उसकी पब्लिसिटी न हो. लेकिन इस सर्विस का इस्तेमाल करने वाले बेहद आसानी से किसी भी महिला की तस्वीर को एक न्यूड इमेज में बदल सकते हैं. उसकी कोई भी साधारण-सी तस्वीर अपलोड करनी होती है. उसके बाद ये सर्विस उसकी बिना कपड़ों की तस्वीर जेनरेट करती है. उन पर वॉटरमार्क लगा होता है. लेकिन थोड़ी-सी फीस देकर ये वॉटरमार्क हटाया भी जा सकता है.
इस सर्विस से जुड़े टेलीग्राम चैनल्स पर ये तस्वीरें देखी जा सकती हैं. ये सर्विस 'डीपन्यूड' नाम की एक सर्विस जैसी लगती है. इसे 2019 में बेच दिया गया था. इसके सॉफ्टवेयर में बदलाव किए गए हैं अब, ऐसा बताया जा रहा है.
रिपोर्ट के अनुसार, सेंसिटी के CEO जॉर्जियो पट्रिनी ने बताया-
‘फोटोज की विश्वसनीयता के मामले में ये कहा जा सकता है कि ये तकनीक शुरुआती है. कई मामलों में ये भी संभव है कि फेक तस्वीरों को पहचाना जा सके. लेकिन इसका मतलब ये नहीं कि ऐसी तस्वीरें लोगों के सम्मान के लिए खतरा नहीं हैं. सोचिए, कोई एक नग्न तस्वीर पोस्ट करे, जो आपने ली भी नहीं. ऐसे में तस्वीर की क्वालिटी का मुद्दा गौण हो जाता है, जिससे कोई फर्क नहीं पड़ता. इस तरह के 'डीपफेक' पिछले कुछ समय में काफी ज्यादा बढ़ गए हैं.
'डीपफेक' की दुनिया
'डीपफ़ेक' दो शब्दों के मेल से बनता है. ‘डीप लर्निंग’ और ‘फ़ेक’. डीप लर्निंग, आर्टिफिशियल इंटेलिजेंस का एक हिस्सा है. आर्टिफिशियल इंटेलिजेंस को सरल शब्दों में समझें, तो ऐसी टेक्नोलॉजी, जो खुद काम कर सकती है, अपनी अक्ल लगाकर. जैसे आप गूगल असिस्टेंट से कह दें कि म्यूजिक बजाओ. उसमें आपको खुद उठकर म्यूजिक प्ले नहीं करना पड़ता. इंसानी दिमाग के जितना करीब हो, आर्टिफिशियल इंटेलिजेंस उतनी ही बेहतर मानी जाएगी.
स्द्झ डीपफेक का इस्तेमाल करके सेलेब्रिटीज ही नहीं, बल्कि आम लड़कियों-महिलाओं को भी निशाना बनाना आसान हो गया है. (सांकेतिक तस्वीर)


डीपफ़ेक, ‘ह्यूमन इमेज सिंथेसिस’ नाम की टेक्नोलॉजी पर काम करता है. जैसे हम किसी भी चीज की फोटोकॉपी कर लेते हैं. वैसे ही ये टेक्नोलॉजी चलती-फिरती चीजों की कॉपी कर सकती है. यानी स्क्रीन पर एक इंसान आप चलते-फिरते, बोलते देख सकते हैं, जो नकली हो.
इस टेक्नोलॉजी की नींव पर बनी ऐप्स बेहद नुकसान पहुंचा सकते हैं. इससे किसी एक व्यक्ति के चेहरे पर, दूसरे का चेहरा लगाया जा सकता है. वो भी इतनी सफ़ाई और बारीकी से कि नीचे वाले चेहरे के सभी हाव-भाव तक ऊपर वाले चेहरे पर दिख सकते हैं. ये उसी तरह है, जैसे एकता कपूर के सीरियल में प्लास्टिक सर्जरी से पुराने चेहरे को नया चेहरा मिल जाता है. और लोगों को लगता है कि सारे काम वो व्यक्ति कर रहा है, जिसका चेहरा दिख रहा है.
कानून क्या कहता है
भारत में साइबर क्राइम के तहत ऐसे मामले IT एक्ट के सेक्शन 66 E के तहत दर्ज किए जा सकते हैं. इसमें किसी भी व्यक्ति के प्राइवेट पार्ट्स को दिखाना अपराध है. सेक्शन 67 A के तहत भी कार्रवाई की जा सकती है, जिसमें सेक्शुअल मटीरियल को दिखाने के खिलाफ प्रावधान हैं. भारतीय दंड संहिता की धारा 499 के तहत भी मामला दर्ज किया जा सकता है, जिसमें आपराधिक मानहानि के खिलाफ प्रावधान हैं.