डरावना है न?
कुछ ऐसा ही हो रहा है एक नए आर्टिफिशियल इंटेलिजेंस बॉट के सहारे. एक साइबर रिसर्च कंपनी ने पता लगाया है कि एक लाख से भी अधिक महिलाओं-लड़कियों की ऐसी फेक न्यूड तस्वीरें जेनरेट की जा चुकी हैं. रीसर्च करने वाली नीदरलैंड्स की इस कंपनी का नाम सेंसिटी (Sensity) है.
'हिन्दुस्तान टाइम्स' में छपी रिपोर्ट के मुताबिक़, जिनकी तस्वीरें टार्गेट की गई हैं, वो महिलाएं अधिकतर रशिया से हैं. सेंसिटी की जांच में सामने आया कि पिछले तीन महीनों में इस तरह की तस्वीरों में 200 फ़ीसद की बढ़त हुई है.

क्या होता है इस बॉट के ज़रिए?
जहां पर ये बॉट उपलब्ध है, उसका नाम छुपाया गया है, ताकि उसकी पब्लिसिटी न हो. लेकिन इस सर्विस का इस्तेमाल करने वाले बेहद आसानी से किसी भी महिला की तस्वीर को एक न्यूड इमेज में बदल सकते हैं. उसकी कोई भी साधारण-सी तस्वीर अपलोड करनी होती है. उसके बाद ये सर्विस उसकी बिना कपड़ों की तस्वीर जेनरेट करती है. उन पर वॉटरमार्क लगा होता है. लेकिन थोड़ी-सी फीस देकर ये वॉटरमार्क हटाया भी जा सकता है.
इस सर्विस से जुड़े टेलीग्राम चैनल्स पर ये तस्वीरें देखी जा सकती हैं. ये सर्विस 'डीपन्यूड' नाम की एक सर्विस जैसी लगती है. इसे 2019 में बेच दिया गया था. इसके सॉफ्टवेयर में बदलाव किए गए हैं अब, ऐसा बताया जा रहा है.
रिपोर्ट के अनुसार, सेंसिटी के CEO जॉर्जियो पट्रिनी ने बताया-
‘फोटोज की विश्वसनीयता के मामले में ये कहा जा सकता है कि ये तकनीक शुरुआती है. कई मामलों में ये भी संभव है कि फेक तस्वीरों को पहचाना जा सके. लेकिन इसका मतलब ये नहीं कि ऐसी तस्वीरें लोगों के सम्मान के लिए खतरा नहीं हैं. सोचिए, कोई एक नग्न तस्वीर पोस्ट करे, जो आपने ली भी नहीं. ऐसे में तस्वीर की क्वालिटी का मुद्दा गौण हो जाता है, जिससे कोई फर्क नहीं पड़ता. इस तरह के 'डीपफेक' पिछले कुछ समय में काफी ज्यादा बढ़ गए हैं.'डीपफेक' की दुनिया
'डीपफ़ेक' दो शब्दों के मेल से बनता है. ‘डीप लर्निंग’ और ‘फ़ेक’. डीप लर्निंग, आर्टिफिशियल इंटेलिजेंस का एक हिस्सा है. आर्टिफिशियल इंटेलिजेंस को सरल शब्दों में समझें, तो ऐसी टेक्नोलॉजी, जो खुद काम कर सकती है, अपनी अक्ल लगाकर. जैसे आप गूगल असिस्टेंट से कह दें कि म्यूजिक बजाओ. उसमें आपको खुद उठकर म्यूजिक प्ले नहीं करना पड़ता. इंसानी दिमाग के जितना करीब हो, आर्टिफिशियल इंटेलिजेंस उतनी ही बेहतर मानी जाएगी.

डीपफ़ेक, ‘ह्यूमन इमेज सिंथेसिस’ नाम की टेक्नोलॉजी पर काम करता है. जैसे हम किसी भी चीज की फोटोकॉपी कर लेते हैं. वैसे ही ये टेक्नोलॉजी चलती-फिरती चीजों की कॉपी कर सकती है. यानी स्क्रीन पर एक इंसान आप चलते-फिरते, बोलते देख सकते हैं, जो नकली हो.
इस टेक्नोलॉजी की नींव पर बनी ऐप्स बेहद नुकसान पहुंचा सकते हैं. इससे किसी एक व्यक्ति के चेहरे पर, दूसरे का चेहरा लगाया जा सकता है. वो भी इतनी सफ़ाई और बारीकी से कि नीचे वाले चेहरे के सभी हाव-भाव तक ऊपर वाले चेहरे पर दिख सकते हैं. ये उसी तरह है, जैसे एकता कपूर के सीरियल में प्लास्टिक सर्जरी से पुराने चेहरे को नया चेहरा मिल जाता है. और लोगों को लगता है कि सारे काम वो व्यक्ति कर रहा है, जिसका चेहरा दिख रहा है.
कानून क्या कहता है
भारत में साइबर क्राइम के तहत ऐसे मामले IT एक्ट के सेक्शन 66 E के तहत दर्ज किए जा सकते हैं. इसमें किसी भी व्यक्ति के प्राइवेट पार्ट्स को दिखाना अपराध है. सेक्शन 67 A के तहत भी कार्रवाई की जा सकती है, जिसमें सेक्शुअल मटीरियल को दिखाने के खिलाफ प्रावधान हैं. भारतीय दंड संहिता की धारा 499 के तहत भी मामला दर्ज किया जा सकता है, जिसमें आपराधिक मानहानि के खिलाफ प्रावधान हैं.