Deepfake Bot On Telegram Is Violating Women By Forging Adult Pics – Telegram पर इस टूल के जरिए बनाई जा रहीं लड़कियों की अश्लील तस्वीरें, लाखों फोटोज हुईं वायरल

Spread the love
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  


इस एप को लेकर कंट्रोवर्सी हो रही है। दरअसल इस एप के जरिए लड़कियों की तस्वीरों से छेड़छाड़ की जा रही है। यह इस एप के एक टूल से किया जा रहा है।

Whatsapp के बाद अब मैसेजिंग एप Telegram भी लोगों के बीच काफी लोकप्रिय हो रही है। अब इस एप को लेकर कंट्रोवर्सी हो रही है। दरअसल इस एप के जरिए लड़कियों की तस्वीरों से छेड़छाड़ की जा रही है। यह इस एप के एक टूल से किया जा रहा है। इस टूल का नाम डीपफेक है। इस टूल के जरिए नाबालिग लड़कियों को निशाना बनाया जा रहा है। ऐसे में लड़कियों की न्यूड तवीरें सोशल मीडिया पर वायरल हो रही हैं। यह सब बिना लड़कियों की सहमति के हो रहा है। बताया जा रहा है कि एक लाख से अधिक अश्लील तस्वीरें ऑनलाइन शेयर की जा चुकी हैं।

दस हजार से अधिक लड़कियों को बनाया निशाना
टेलीग्राम के डीपफेक टूल के जरिए किसी तस्वीर में फोटो पहने हुए व्यक्ति के कपड़े उतारे जा सकते हैं। इस टूल का गलत इस्तेमाल कर नाबालिग लड़कियों को परेशान किया जा रहा है और उनकी तस्वीरों के साथ छेड़छाड़ की जा रही है। बताया जा रहा है कि अब तक दस हजार से अधिक लड़कियों और महिलाओं की बिना सहमति वाली एक लाख से अधिक अश्लील तस्वीरें ऑनलाइन साझा की जा चुकी हैं।

यह भी पढ़ें—डेटा चुराते हैं बच्चों के ये तीन एप्स, अगर आपके मोबाइल में हैं तो तुरंत करें डिलीट

AI Bot का किया इस्तेमाल
रिपोर्ट्स के मुताबिक, लड़कियों और महिलाओं की अश्लील तस्वीरें बनाने के लिए टेलीग्राम नेटवर्क द्वारा एक नए आर्टीफिशियल इंटेलिजेंस बॉट (AI Bot) का इस्तेमाल किया गया है। यह बॉट पिछले करीब एक वर्ष से एप की तरह काम कर रहा है। यह बॉट यूजर्स को लड़कियों की अश्लील तस्वीरें बनाने की परमिशन देता है।

सेलेब्स के वीडियो भी बनाए
इस टूल का इस्तेमाल कर सिर्फ आम लड़कियों और महिलाओं को ही नहीं बल्कि सेलेब्स को भी टारगेट किया जा रहा है। बताया जा रहा है कि टेलीग्राम पर लड़कियों की करीब 1 लाख से अधिक फर्जी तस्वीरें मौजूद हैं। इन तस्वीरों में से 70 प्रतिशत फोटोज सोशल मीडिया या फिर प्राइवेट सोर्स से हासिल की गई हैं। जो तस्वीरें शेयर की गई हैं, उनमें से ज्यादातर आम नागरिकों की हैं। वहीं कुछ दिनों पहले इसी तकनीक का इस्तेमाल कर सेलिब्रिटीज के भी गंदे वीडियोज बनाए गए।

यह भी पढ़ें—Whatsapp में जुड़ने जा रहे कमाल के दो फीचर्स, Video Call होगी और मजेदार

इंटेलिजेंस कंपनी ने किया खुलासा
जो फेक अश्लील तस्वीरें वायरल हो रही हैं उन्हें बनाने के लिए सिर्फ एक नॉर्मल इमेज चाहिए होती है। इसके आगे का काम सॉफ्टवेयर से होता है। इस मामले का खुलासा विजुअल थ्रेट इंटेलिजेंस कंपनी सेंसिटी ने किया। इस कंपनी के CEO जियोर्जियो पैट्रिनी ने बताया कि यह बॉट मात्र एक तस्वीर से निर्वस्त्र इमेज बना सकता है। इसी कारण आम लोगों को आसानी से टारगेट किया जा रहा है। फेसबुक प्रोफाइल पिक्चर से भी निर्वस्त्र तस्वीरें बनाई जा सकती हैं।













Source link

Leave a Comment

Translate »
You cannot copy content of this page