कृत्रिम बुद्धिमत्ता (एआई) की दुनिया मदद से ज्यादा चिंता के क्षेत्र पैदा करती दिख रही है।
मानवीय नौकरियों में अतिक्रमण से लेकर सामग्री की चोरी करने के आसान तरीके बनाने तक, डीप फेक, मॉर्फिंग इमेज और यहां तक कि ऑडियो/वीडियो सामग्री जैसी अधिक परेशान करने वाली चीजें, उस बिंदु तक जहां यह बताना मुश्किल है कि क्या असली है और क्या नकली है, एआई का उपयोग किया जा रहा है इस सब के लिए उपयोग किया जाता है।
हाल के एक सर्वेक्षण में, अब यह पाया गया है कि स्कूल में छोटे बच्चे संभावित रूप से अपने सहपाठियों की नग्न तस्वीरें बनाने और सोशल मीडिया और अन्य डिजिटल प्लेटफार्मों से तस्वीरें प्राप्त करने के लिए एआई का उपयोग कर रहे हैं।
सर्वेक्षण में क्या पाया गया?
बच्चों को यौन शोषण से बचाने पर केंद्रित एक गैर-लाभकारी संगठन थॉर्न द्वारा किए गए एक सर्वेक्षण में 3 नवंबर से 1 दिसंबर, 2023 के बीच 9 से 17 वर्ष की आयु के 1,040 नाबालिगों से पूछताछ की गई।
संयुक्त राज्य अमेरिका में स्थित संगठन ने ऑनलाइन सुरक्षा पर युवा परिप्रेक्ष्य, 2023 नामक शोध में अपने निष्कर्ष जारी किए और विभिन्न पृष्ठभूमि के बच्चों से बाल यौन शोषण सामग्री (सीएसएएम), “हानिकारक ऑनलाइन अनुभव” और बहुत कुछ के साथ उनके अनुभवों के बारे में पूछा।
सर्वेक्षण में लिखा गया है, “इस सर्वेक्षण के समय छोटे प्रतिभागियों को मौजूदा युवा पैनलों के माध्यम से या सीधे देखभाल करने वालों के माध्यम से भर्ती किया गया था,” और “युवा पैनलों में नाबालिगों की भागीदारी के लिए देखभालकर्ता की सहमति आवश्यक थी, साथ ही सर्वेक्षण के लिए सीधे भर्ती किए गए नाबालिगों के लिए भी।”
एआई के गैर-सहमति से उपयोग किए जाने की बात करते हुए, रिपोर्ट में लिखा गया है कि 2023 में, थॉर्न के वार्षिक निगरानी सर्वेक्षण में साथियों द्वारा सीएसएएम बनाने के लिए उपयोग किए जा रहे जेनेरिक एआई (जीएआई) के बारे में भी पूछा गया, जिसमें वास्तविक बच्चों की “डीपफेक” नग्न इमेजरी भी शामिल है, जिसे बाद में साझा किया जा सकता है। उनकी सहमति के बिना।
परिणामों में पाया गया कि अधिकांश नाबालिगों को यह विश्वास नहीं है कि उनके साथी अन्य बच्चों की स्पष्ट छवियां बनाने के लिए इस तकनीक का उपयोग कर रहे हैं।
हालाँकि, लगभग 10 में से 1 नाबालिग (11%) ने बताया कि वे ऐसे मामलों के बारे में जानते थे जहाँ उनके साथियों ने ऐसा किया था, जबकि अन्य 10% ने बताया कि वे जवाब नहीं देना पसंद करते थे।
404 मीडिया की एक रिपोर्ट में इस बात पर भी प्रकाश डाला गया है कि हालांकि ये निष्कर्ष निश्चित रूप से चिंताजनक हैं, लेकिन ऐसे “मानव तस्करी विरोधी” संगठनों द्वारा फंसाने का खतरनाक तरीका भी आदर्श नहीं है।
सात में से एक “नाबालिगों ने अपना स्वयं का एसजी-सीएसएएम साझा किया है” का उदाहरण देते हुए लिखा है कि “हालांकि ये छवियां तकनीकी रूप से अवैध हैं और सभी प्रमुख इंटरनेट प्लेटफार्मों की नीतियों के खिलाफ हैं, लेकिन डरावना लगने वाला शब्द ऐसे उदाहरणों को भी कवर करता है, उदाहरण के लिए, एक 17-वर्षीय किशोर सहमति से अपने साथी को नग्न भेजता है।”
रिपोर्ट में यह भी कहा गया है, “यद्यपि इन घटनाओं के पीछे की प्रेरणा यौन शोषण के इरादे से अधिक किशोरों द्वारा किए जाने वाले कृत्यों से प्रेरित होती है, लेकिन इसके परिणामस्वरूप पीड़ितों को होने वाला नुकसान वास्तविक है और जिम्मेदारी से बचने के प्रयासों में इसे कम नहीं किया जाना चाहिए।”
Read More: Google Pay, Paytm, And PhonePe UPI Transactions Might Be Putting Women In Danger
थॉर्न की सीईओ जूली कॉर्डुआ ने भी इस पर टिप्पणी करते हुए कहा, “तथ्य यह है कि 10 में से 1 नाबालिग रिपोर्ट करता है कि उसके साथी अन्य बच्चों की नग्नता उत्पन्न करने के लिए एआई का उपयोग कर रहे हैं, यह चिंताजनक है और इस बात पर प्रकाश डालता है कि ऑनलाइन जोखिम कितनी तेजी से विकसित हो रहे हैं।”
उन्होंने यह भी कहा, “दुर्व्यवहार का यह उभरता रूप बच्चों की सुरक्षा और कल्याण के लिए एक बड़ा खतरा पैदा करता है। हमें सुरक्षा उपाय विकसित करने, युवाओं को डीपफेक के खतरों के बारे में शिक्षित करने और माता-पिता को इन जोखिमों के बारे में अपने बच्चों के साथ खुली बातचीत करने के लिए सशक्त बनाने के लिए तेजी से कार्य करना चाहिए। इन तकनीकी बदलावों से आगे रहकर हम लगातार बदलते डिजिटल परिदृश्य में बच्चों की बेहतर सुरक्षा कर सकते हैं।”
यह एआई के गलत उपयोग और ‘न्यूडिफाई’ जैसे परेशान करने वाले ऐप्स के खतरनाक प्रसार को प्रकाश में लाता है और एआई का उपयोग करके किसी व्यक्ति की सामान्य तस्वीर को नग्न तस्वीर में बदल सकता है।
अप्रैल 2023 में, टिकटॉक उपयोगकर्ता राचेल (@rache.lzh) ने एक वीडियो पोस्ट किया था जिसमें बताया गया था कि कैसे एक अज्ञात उपयोगकर्ता ने उसे अपनी तस्वीरें भेजीं जिन्हें एआई का उपयोग करके इंस्टाग्राम पर नग्न अवस्था में बदल दिया गया था।
टिकटॉकर द्वारा अपने अकाउंट पर पोस्ट की गई तस्वीरें पूरी तरह से कपड़े पहने हुए थीं, हालांकि, किसी ने उन्हें गैर-सहमति से निर्मित अश्लील छवियों के रूप में संपादित किया।
27 अप्रैल के एक वीडियो में, उसने रोते हुए कहा, “यह मेरी तस्वीरें थीं जो मैंने पूरी तरह से कपड़े पहने हुए पोस्ट की थीं। और उन्होंने मुझे नग्न रूप में संपादित करने के लिए उन्हें कुछ संपादन एआई प्रोग्राम के माध्यम से डाला था, और यह कि “उन्होंने मूल रूप से मुझे नग्न रूप से फोटोशॉप किया था”।
आगे उन्होंने आपबीती समझाते हुए कहा, “और इससे भी बुरी बात यह है कि अगले दिन जब मैं उठी तो मुझे इन छवियों के दर्जनों डीएम मिल रहे थे लेकिन वॉटरमार्क के बिना। इसलिए इस व्यक्ति ने वॉटरमार्क हटाने के लिए भुगतान किया और इसे ऐसे वितरित करना शुरू कर दिया जैसे कि यह वास्तविक था,” उन्होंने कहा कि लोगों ने उसके शरीर पर टैटू भी बनवाए और एआई का उपयोग करके उसके शरीर को बदल दिया।
वायर्ड की एक रिपोर्ट के अनुसार, पिछले साल दिसंबर में फ्लोरिडा से 13 और 14 साल की उम्र के दो लड़कों को एआई का उपयोग करके अपने सहपाठियों की डीपफेक नग्न तस्वीरें बनाने के आरोप में गिरफ्तार किया गया था और उन पर थर्ड-डिग्री गुंडागर्दी का आरोप लगाया गया था।
यह खौफनाक हरकत सिर्फ अमेरिका तक ही सीमित नहीं है बल्कि पूरी दुनिया में फैली हुई है।
इस साल जुलाई में, एक स्पेनिश किशोर अदालत ने व्हाट्सएप समूहों के माध्यम से अपनी महिला सहपाठियों की एआई-जनित नग्न तस्वीरें फैलाने के बाद 15 नाबालिगों को एक साल की परिवीक्षा की सजा सुनाई।
बदाजोज़ के किशोर न्यायालय की एक प्रेस विज्ञप्ति के अनुसार, नाबालिगों को अपने कार्यों के परिणामों को समझने के लिए “सूचना और संचार प्रौद्योगिकियों के जिम्मेदार उपयोग”, लिंग और समानता पर कक्षाओं में भी भाग लेना होगा।
रिपोर्टों के अनुसार, किशोरों ने लड़कियों के सोशल मीडिया प्रोफाइल से तस्वीरों का इस्तेमाल किया और फिर “अन्य नग्न महिला शरीर” के ऊपर नाबालिग लड़कियों के चेहरे लगाने के लिए एआई ऐप का इस्तेमाल किया।
यूनाइटेड किंगडम स्थित इंटरनेट वॉच फ़ाउंडेशन (IWF) द्वारा की गई 2023 की जांच में पाया गया कि “20,254 AI-जनित छवियां एक महीने की अवधि में एक डार्क वेब CSAM फ़ोरम पर पोस्ट की गई पाई गईं,” और वह आज के समय में “पाए गए अधिकांश AI CSAM अब इतने यथार्थवादी हैं कि उन्हें ‘वास्तविक’ CSAM माना जा सकता है”।
यहां तक कि दक्षिण कोरिया में भी, वर्तमान में एक बड़ा डीपफेक स्कैंडल चल रहा है, जहां कहा जाता है कि पुरुष महिलाओं की सहमति के बिना ली गई यौन ग्राफिक सामग्री को साझा करने के लिए टेलीग्राम चैटरूम का उपयोग कर रहे हैं। रिपोर्ट के अनुसार इसमें युवा लड़कियों, छात्रों, सैन्य कर्मियों और यहां तक कि परिवार की महिला सदस्यों से लेकर सभी प्रकार की महिलाएं शामिल हैं।
शायद चिंताजनक बात यह है कि जब ऐसे डीपफेक प्लेटफॉर्म या एआई ऐप्स की बात आती है तो पहुंच में आसानी होती है, जो “किसी भी फोटो को नग्न करने” या किसी भी व्यक्ति की नग्नता बनाने का वादा करते हैं, जब तक कि कोई तस्वीर सेकंड के भीतर मौजूद हो।
Image Credits: Google Images
Sources: Firstpost, Thorn Org, The Hindu
Originally written in English by: Chirali Sharma
Translated in Hindi by Pragya Damani
This post is tagged under: AI, AI misuse, deepfakes, deepfake nudes, AI-generated content, Thorn, Thorn organisation, child protection, sexual exploitation, sexual exploitation ai, sexual exploitation artificial intelligence, AI technologies, deepake scandal
Disclaimer: We do not hold any right, or copyright over any of the images used, these have been taken from Google. In case of credits or removal, the owner may kindly mail us.