रश्मिका मंदाना, कैटरीना कैफ के बाद एक्ट्रेस आलिया भट्ट का डीपफेक वीडियो वायरल

रश्मिका मंदाना और कैटरीना कैफ के वायरल डीपफेक वीडियो के बाद अभिनेत्री आलिया भट्ट डीपफेक का नया निशाना हैं। वायरल वीडियो में आलिया के चेहरे को एक अन्य महिला के चेहरे में बदल दिया गया है जो कैमरे की ओर अश्लील इशारे कर रही है। यह वीडियो AI के उपयोग पर चिंता जताते हुए इंटरनेट पर तेजी से वायरल हो रहा है।

इससे पहले एक्ट्रेस रश्मिका मंदाना, काजोल और कैटरीना कैफ भी डीपफेक टेक्नोलॉजी का शिकार हो चुकी हैं। इन अभिनेत्रियों के चेहरों को डीपफेक तकनीक का उपयोग करके किसी और के चेहरे में बदल दिया गया था।

क्या है डीपफेक ?

डीपफेक तकनीक, लोगो को किसी की नकली छवियां बनाने और उनसे ऐसी चीजें कहने या करने के लिए मजबूर करने की अनुमति देती है जो उन्होंने वास्तविक जीवन में कभी नहीं की होती। इस तकनीक में अधिक विकास के साथ, यह पता लगाना मुश्किल हो गया है कि वीडियो नकली है या नहीं।

कितने प्रकार का होता है डीपफेक?

डीपफेक तकनीक में हूबहू असली दिखने वाली, लेकिन नकली मल्टीमीडिया कंटेंट बनाने के लिए विभिन्न तकनीकों और तरीकों को शामिल किया गया है, आइये डीपफेक तकनीक के मुख्यत: प्रकारो के बारे में जानते है:

चेहरे की अदला-बदली: इसमें किसी वीडियो या फोटो में एक व्यक्ति के चेहरे को दूसरे के चेहरे से बदलना, शामिल है।

आवाज क्लोनिंग: किसी व्यक्ति की आवाज़ की नकल करने के लिए भी इसका उपयोग होता है, जिससे सिंथेटिक ऑडियो सामग्री के निर्माण की अनुमति मिलती है जो किसी विशिष्ट व्यक्ति की तरह लगती है।

इमेज जनरेशन: पूरी तरह से नई इमेज बनाने के लिए जेनरेटिव मॉडल का उपयोग होता है। इसमें फोटो प्रामाणिक दिखाई दे सकते हैं लेकिन वह पूरी तरह से सिंथेटिक हैं।

वीडियो संश्लेषण: इसमें मौजूदा फुटेज में हेरफेर करके या स्क्रैच से सामग्री बनाकर, अक्सर गहन शिक्षण तकनीकों का उपयोग करके पूरी तरह से नए वीडियो तैयार करना शामिल है।

डीपफेक पर सरकार की प्रतिक्रिया

डीपफेक खतरे से निपटने के लिए भारत सरकार ने घोषणा की है कि वह नए नियमों का मसौदा तैयार करेगी या मौजूदा कानूनों में संशोधन करेगी।

प्रधानमंत्री नरेंद्र मोदी ने भी डीपफेक के बारे में बयान दिया है। पीएम मोदी ने डीपफेक को देश की व्यवस्था के लिए सबसे बड़े खतरों में से एक बताया है। उन्होंने हाल ही में इस बात पर जोर दिया कि डीपफेक समाज में अराजकता पैदा कर सकता है, और नागरिकों और मीडिया से सतर्क रहने का आग्रह किया।