'मुझे और बेहतर बना दिया…'!जॉर्जिया मेलोनी बनीं डीपफेक का शिकार, इंटरनेट पर अश्लील तस्वीरें वायरल!

रोम। इटली की प्रधानमंत्री जॉर्जिया मेलोनी इन दिनों एक बड़े डिजिटल स्कैंडल के केंद्र में आ गई हैं। सोशल मीडिया और इंटरनेट पर उनकी कई आपत्तिजनक और न्यूड तस्वीरें तेजी से वायरल हो रही हैं। इन तस्वीरों ने न सिर्फ इटली में बल्कि पूरी दुनिया में हलचल मचा दी है। हालांकि, बाद में साफ हुआ कि ये तस्वीरें असली नहीं हैं, बल्कि आर्टिफिशियल इंटेलिजेंस (AI) की मदद से बनाई गईं फर्जी तस्वीरें हैं, जिन्हें डीपफेक कहा जाता है।
प्रधानमंत्री ने खुद दी सफाई
इस पूरे मामले पर जॉर्जिया मेलोनी ने खुद सोशल मीडिया प्लेटफॉर्म ‘एक्स’ पर सामने आकर सफाई दी। उन्होंने बताया कि उनकी जो तस्वीरें वायरल हो रही हैं, वे पूरी तरह फर्जी हैं और AI तकनीक का इस्तेमाल करके बनाई गई हैं। मेलोनी ने आगे लिखा कि कुछ लोग इन नकली तस्वीरों को असली बताकर फैला रहे हैं। उन्होंने हल्के अंदाज में यह भी कहा कि तस्वीरें बनाने वालों ने उन्हें और बेहतर दिखा दिया है, लेकिन असल समस्या इससे कहीं बड़ी है।
डीपफेक को बताया खतरनाक हथियार
प्रधानमंत्री ने इस पूरे मामले को सिर्फ अपने खिलाफ साजिश नहीं, बल्कि एक बड़ी वैश्विक समस्या बताया। उन्होंने कहा कि डीपफेक एक ऐसा खतरनाक हथियार बन चुका है, जिससे किसी को भी निशाना बनाया जा सकता है।
यह भी पढ़ें: डोनाल्ड ट्रंप : वेनेजुएला के बाद ग्रीनलैंड पर कब्जे की मांग दोहराई, करीबी दोस्त मेलोनी के जवाब ने दिया बड़ा झटका
उनके मुताबिक, यह तकनीक लोगों को धोखा देने, उनकी छवि खराब करने और झूठ फैलाने के लिए इस्तेमाल की जा रही है। कोई भी व्यक्ति, चाहे वह नेता हो, अभिनेता हो या आम नागरिक इसका शिकार बन सकता है।
शेयर करने से पहले जांच जरूरी
मेलोनी ने लोगों से अपील की कि सोशल मीडिया पर किसी भी तस्वीर या वीडियो को सच मानने से पहले उसकी सच्चाई जरूर जांच लें।
उन्होंने कहा, मैं खुद अपना बचाव कर सकती हूं, लेकिन बहुत से लोग ऐसे हैं जो ऐसा नहीं कर पाते। इसलिए पहले जांच करें, फिर विश्वास करें और उसके बाद ही शेयर करें।
भारत भी नहीं है अछूता
भारत में भी डीपफेक के कई मामले सामने आ चुके हैं। कई बड़े सेलिब्रिटी और नेता इसका शिकार बने हैं। अभिनेत्री रशमिका मंधाना का एक वीडियो सोशल मीडिया पर वायरल हुआ था, जिसमें उनके चेहरे को किसी दूसरी लड़की के शरीर पर लगा दिया गया था। बाद में जांच में पता चला कि यह वीडियो पूरी तरह फर्जी था और AI से बनाया गया था।
इसी तरह अभिनेता आमिर खान का एक डीपफेक वीडियो भी सामने आया था, जिसमें उन्हें एक राजनीतिक पार्टी का समर्थन करते दिखाया गया। इस वीडियो ने काफी विवाद खड़ा किया।
दुनियाभर में बढ़ा डीपफेक का खतरा
डीपफेक तकनीक का खतरा पूरी दुनिया में मामले तेजी से बढ़ रहे हैं। खासकर राजनीति और मनोरंजन जगत से जुड़े लोग ज्यादा निशाना बन रहे हैं। AI की मदद से किसी का चेहरा किसी और के शरीर पर लगाना या उनकी आवाज की नकल करना अब पहले से कहीं ज्यादा आसान हो गया है। यही वजह है कि फर्जी कंटेंट तेजी से फैलता है और लोगों को गुमराह करता है।
यह भी पढ़ें: मोदी की तस्वीर के साथ इटली की पीएम की पोस्ट को मिले 2 करोड़ से ज्यादा व्यूज
क्यों खतरनाक है डीपफेक?
डीपफेक सिर्फ मनोरंजन या मजाक तक सीमित नहीं है। इसके कई गंभीर नुकसान हो सकते हैं-
- किसी की छवि खराब की जा सकती है।
- झूठी खबरें फैलाकर समाज में भ्रम पैदा किया जा सकता है।
- चुनाव और राजनीति को प्रभावित किया जा सकता है।
- निजी जिंदगी पर गहरा असर पड़ सकता है।
यह तकनीक लोगों के भरोसे को तोड़ रही है, क्योंकि अब यह पहचानना मुश्किल हो गया है कि क्या असली है और क्या नकली।











