PlayBreaking News

'मुझे और बेहतर बना दिया…'!जॉर्जिया मेलोनी बनीं डीपफेक का शिकार, इंटरनेट पर अश्लील तस्वीरें वायरल!

डिजिटल दौर की चमक के पीछे एक काला साया भी पल रहा है और इस बार निशाने पर हैं Giorgia Meloni। सोशल मीडिया पर उनकी अश्लील तस्वीरों ने जैसे ही रफ्तार पकड़ी, दुनिया भर में सनसनी फैल गई। लेकिन ये तस्वीरें असली नहीं, बल्कि AI से बनाई गई डीपफेक थीं।
Follow on Google News
जॉर्जिया मेलोनी बनीं डीपफेक का शिकार, इंटरनेट पर अश्लील तस्वीरें वायरल!
FILE IMAGE

रोम। इटली की प्रधानमंत्री जॉर्जिया मेलोनी इन दिनों एक बड़े डिजिटल स्कैंडल के केंद्र में आ गई हैं। सोशल मीडिया और इंटरनेट पर उनकी कई आपत्तिजनक और न्यूड तस्वीरें तेजी से वायरल हो रही हैं। इन तस्वीरों ने न सिर्फ इटली में बल्कि पूरी दुनिया में हलचल मचा दी है। हालांकि, बाद में साफ हुआ कि ये तस्वीरें असली नहीं हैं, बल्कि आर्टिफिशियल इंटेलिजेंस (AI) की मदद से बनाई गईं फर्जी तस्वीरें हैं, जिन्हें डीपफेक कहा जाता है। 

प्रधानमंत्री ने खुद दी सफाई

इस पूरे मामले पर जॉर्जिया मेलोनी  ने खुद सोशल मीडिया प्लेटफॉर्म ‘एक्स’ पर सामने आकर सफाई दी। उन्होंने बताया कि उनकी जो तस्वीरें वायरल हो रही हैं, वे पूरी तरह फर्जी हैं और AI तकनीक का इस्तेमाल करके बनाई गई हैं। मेलोनी ने आगे लिखा कि कुछ लोग इन नकली तस्वीरों को असली बताकर फैला रहे हैं। उन्होंने हल्के अंदाज में यह भी कहा कि तस्वीरें बनाने वालों ने उन्हें और बेहतर दिखा दिया है, लेकिन असल समस्या इससे कहीं बड़ी है।

Twitter Post

डीपफेक को बताया खतरनाक हथियार

प्रधानमंत्री ने इस पूरे मामले को सिर्फ अपने खिलाफ साजिश नहीं, बल्कि एक बड़ी वैश्विक समस्या बताया। उन्होंने कहा कि डीपफेक एक ऐसा खतरनाक हथियार बन चुका है, जिससे किसी को भी निशाना बनाया जा सकता है।

यह भी पढ़ें: डोनाल्ड ट्रंप : वेनेजुएला के बाद ग्रीनलैंड पर कब्जे की मांग दोहराई, करीबी दोस्त मेलोनी के जवाब ने दिया बड़ा झटका

उनके मुताबिक, यह तकनीक लोगों को धोखा देने, उनकी छवि खराब करने और झूठ फैलाने के लिए इस्तेमाल की जा रही है। कोई भी व्यक्ति, चाहे वह नेता हो, अभिनेता हो या आम नागरिक इसका शिकार बन सकता है।

शेयर करने से पहले जांच जरूरी

मेलोनी ने लोगों से अपील की कि सोशल मीडिया पर किसी भी तस्वीर या वीडियो को सच मानने से पहले उसकी सच्चाई जरूर जांच लें।
उन्होंने कहा, मैं खुद अपना बचाव कर सकती हूं, लेकिन बहुत से लोग ऐसे हैं जो ऐसा नहीं कर पाते। इसलिए पहले जांच करें, फिर विश्वास करें और उसके बाद ही शेयर करें।

भारत भी नहीं है अछूता

भारत में भी डीपफेक के कई मामले सामने आ चुके हैं। कई बड़े सेलिब्रिटी और नेता इसका शिकार बने हैं। अभिनेत्री रशमिका मंधाना का एक वीडियो सोशल मीडिया पर वायरल हुआ था, जिसमें उनके चेहरे को किसी दूसरी लड़की के शरीर पर लगा दिया गया था। बाद में जांच में पता चला कि यह वीडियो पूरी तरह फर्जी था और AI से बनाया गया था।

इसी तरह अभिनेता आमिर खान का एक डीपफेक वीडियो भी सामने आया था, जिसमें उन्हें एक राजनीतिक पार्टी का समर्थन करते दिखाया गया। इस वीडियो ने काफी विवाद खड़ा किया।

दुनियाभर में बढ़ा डीपफेक का खतरा

डीपफेक तकनीक का खतरा पूरी दुनिया में मामले तेजी से बढ़ रहे हैं। खासकर राजनीति और मनोरंजन जगत से जुड़े लोग ज्यादा निशाना बन रहे हैं। AI की मदद से किसी का चेहरा किसी और के शरीर पर लगाना या उनकी आवाज की नकल करना अब पहले से कहीं ज्यादा आसान हो गया है। यही वजह है कि फर्जी कंटेंट तेजी से फैलता है और लोगों को गुमराह करता है।

यह भी पढ़ें: मोदी की तस्वीर के साथ इटली की पीएम की पोस्ट को मिले 2 करोड़ से ज्यादा व्यूज

क्यों खतरनाक है डीपफेक?

डीपफेक सिर्फ मनोरंजन या मजाक तक सीमित नहीं है। इसके कई गंभीर नुकसान हो सकते हैं-

  • किसी की छवि खराब की जा सकती है।
  • झूठी खबरें फैलाकर समाज में भ्रम पैदा किया जा सकता है।
  • चुनाव और राजनीति को प्रभावित किया जा सकता है।
  • निजी जिंदगी पर गहरा असर पड़ सकता है।

यह तकनीक लोगों के भरोसे को तोड़ रही है, क्योंकि अब यह पहचानना मुश्किल हो गया है कि क्या असली है और क्या नकली।

Garima Vishwakarma
By Garima Vishwakarma

गरिमा विश्वकर्मा | People’s Institute of Media Studies से B.Sc. Electronic Media की डिग्री | पत्रकार...Read More

नई दिल्ली
--°
बारिश: -- mmह्यूमिडिटी: --%हवा: --
Source:AccuWeather
icon

Latest Posts