27 Jul 2024, 11:24:46 के समाचार About us Android App Advertisement Contact us app facebook twitter android
State

साली साहिबाओं पर आया दिल तो AI से बनाई अश्लील फोटो, कहा 'मुझसे गंदी बात करो, नहीं तो…'

By Dabangdunia News Service | Publish Date: May 21 2024 6:33PM | Updated Date: May 21 2024 6:33PM
  • facebook
  • twitter
  • googleplus
  • linkedin

मध्य प्रदेश की इंदौर पुलिस ने ऐसे शख्स को गिरफ्तार किया है जो AI तकनीक के जरिए पहले लड़कियों के अश्लील फोटो बनाता। फिर उन्हें सोशल मीडिया पर शेयर करने की धमकी देकर ब्लैकमेल करता। आरोपी नगर पालिका निगम में कम्प्यूटर आपरेटर है। पीड़ित महिलाओं में ज्यादातर आरोपी की बीवी की सहेलियां हैं।

पुलिस के मुताबिक, आरोपी यश भावसार मध्य प्रदेश के शाजापुर नगर परिषद में कंप्यूटर ऑपरेटर के रूप में काम करता था। उसने एआई-आधारित ऐप का इस्तेमाल करके इन महिलाओं की डीपफेक या मॉर्फ्ड तस्वीरें बनाईं, जिनके पास इंस्टाग्राम अकाउंट हैं। फिर उसने इंस्टाग्राम पर एक फर्जी पहचान के साथ अपना एक अकाउंट बनाया। इन अश्लील तस्वीरों को महिलाओं को भेजने लगा।

इतना ही नहीं उसने उन लड़कियों को धमकी दी कि अगर उन्होंने उसे ब्लॉक किया तो वो उन अश्लील फोटो को सोशल मीडिया पर वायरल कर देगा। एक पीड़िता की मानें तो आरोपी उससे जबरन गंदी-गंदी बातें करना चाहता था। बात न करने पर उसे बदनाम करने की धमकी देता था। पीड़ित लड़कियों की शिकायत पर पुलिस ने आरोपी के खिलाफ केस दर्ज करते हुए गिरफ्तार कर लिया है।

डीसीपी ने कहा कि पीड़ित लड़कियों में ज्यादातर कॉलेज की छात्राएं हैं। उनमें से कई यश भावसार की पत्नी की दोस्त भी हैं। वो उन लड़कियों को पहले से जानता है। उन पर उसकी बुरी नजर पहले से थी। पुलिस ने आरोपी का मोबाइल फोन और लैपटॉप जब्त कर लिया है। इस मामले में आगे की जांच जारी है। पुलिस यह जानने की कोशिश कर रही है कि आरोपी ने इससे पहले इस तरह के अपराध किए हैं या नहीं।

इससे पहले भी डीपफेक फोटो से ब्लैकमेलिंग के ढेरों घटनाएं सामने आ चुकी हैं। अप्रैल 2024 में उत्तर प्रदेश की राजधानी लखनऊ में एआई की मदद से ब्लैकमेलिंग का मामला सामने आया था। यहां कमता निवासी ठेकेदार को लोनिंग ऐप का इस्तेमाल भारी पड़ गया था। साइबर जालसाजों ने लोन के रुपये वसूलने के साथ ही एआई की मदद से पीड़ित के बच्चों की अश्लील फोटो बनाकर ब्लैकमेल करते हुए हजारों रुपये वसूल लिए।

AI का गलत उपयोग कर न्यूड फोटो, वीडियो बनाने वाले अक्सर बच्चों और महिलाओं को ही शिकार बनाते हैं। एक्सर्पट्स के मुताबिक, वीडियो तैयार करने के लिए कई एंगल के फोटो की जरूरत होती है। जबकि, फोटो के लिए सिर्फ एक तस्वीर की आवश्यकता पड़ती है। सोशल मीडिया से फोटो चोरी करना सबसे आसान तरीका है। रिपोर्ट्स के मुताबिक डीपफेक न्यूड फोटो के इस्तेमाल से बच्चे और महिलाओं को ही ब्लैकमेल की घटनाएं सर्वाधिक हो रही हैं।

  • facebook
  • twitter
  • googleplus
  • linkedin

More News »