डीपफेक का शिकार हुई नोरा फतेही | Nora Fatehi | Deep Fake | क्या होता है डीपफेक? | जानिए डीपफेक के 3 सबसे बड़े खतरे
mohitsharma4255
डीपफेक का शिकार हुई नोरा फतेही
डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे। किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।
“डीपफेक” कृत्रिम बुद्धिमत्ता (AI) के उपयोग से तैयार किया गया या मनोरंजन/मीडिया का वह अवास्तविक रूप है, जिसका उपयोग ऑडियो और विज़ुअल कंटेंट के माध्यम से लोगों को बहकाने अथवा गुमराह करने के लिये किया जा सकता है। डीपफेक शब्द आर्टिफिशियल इंटेलिजेंस (AI) के एक रूप से लिया गया है जिसे डीप लर्निंग कहा जाता है। जैसा कि नाम से पता चलता है, डीपफेक डीप लर्निंग का इस्तेमाल नकली घटनाओं की तस्वीरें बनाने के लिए किया जाता है।
कैसे काम करती है डीप फेक टेक्नोलॉजी?
डीप फेक बनाने के लिए कई तरीके हैं। हालांकि, सबसे आम डीप न्यूरल नेटवर्क का इस्तेमाल करने पर निर्भर करता है जिसमें फेस-स्वैपिंग टेक्नोलॉजी को लागू करने के लिए ऑटोएन्कोडर्स शामिल होते हैं। डीप फेक टेक्नोलॉजी की मदद से किसी दूसरे की फोटो या वीडियो पर किसी सेलिब्रिटी वीडियो के फ़ेस के साथ फ़ेस स्वैप कर दिया जाता है। आसान भाषा में कहें तो इस टेक्नोलॉजी की मदद से AI का इस्तेमाल करके फेक वीडियो बनाई जाती हैं, जो देखने में बिलकुल असली लगती हैं लेकिन होती नहीं है। डीप फेक बनाना शुरुआती लोगों के लिए और भी आसान है, क्योंकि कई ऐप और सॉफ्टवेयर उन्हें बनाने में मदद करते हैं। GitHub एक ऐसी जगह भी है जहां भारी मात्रा में डीपफेक सॉफ्टवेयर पाए जा सकते हैं।
डीपफेक का शिकार हुई नोरा फतेही
सचिन तेंदुलकर, रश्मिका मंदाना, कटरीना कैफ, आलिया भट्ट और काजोल समेत कई एक्ट्रेसेस के बाद अब नोरा फतेही का डीप फेक वीडियो सामने आया है। नोरा फतेही ने खुद अपने सोशल मीडिया अकाउंट पर इस वीडियो को शेयर किया है। इस वीडियो में नोरा जैसी दिखने वाली एक महिला एंड ऑफ सीजन सेल को प्रमोट करती नजर आ रही है। नोरा ने इस फोटो और वीडियो को अपने इंस्टाग्राम स्टोरीज पर शेयर करते हुए लिखा, ‘शॉक्ड, यह मैं नहीं हूं।’ एक्ट्रेस ने इसे फेक बताया। इस वीडियो में एक महिला एकदम नोरा जैसी आवाज में बोलते हुए किसी फैशन ब्रैंड की सेल को प्रमोट कर रही है।
वह महिला देखने में भी काफी हद तक नोरा फतेही जैसी ही दिखती है। इस फैशन ब्रैंड के सोशल मीडिया अकाउंट पर भी नोरा फतेही के कई फोटाेज और वीडियोज अपलोड किए गए हैं। हालांकि, उनमें से किसी में भी ना तो नोरा को टैग किया गया है और ना ही कहीं नोरा ने उस कंपनी के साथ कोलैबोरेट किया है।
ऐसे में साफ है कि इस अकाउंट के जरिए ऑनलाइन गारमेंट्स बेचने के नाम पर ठगी की जा रही है। दूसरी तरफ शनिवार को दिल्ली पुलिस ने एक्ट्रेस रश्मिका मंदाना के डीपफेक वीडियो मामले के मुख्य आरोपी 24 साल के इंजीनियर ईमानी नवीन को आंध्र प्रदेश से गिरफ्तार किया है। इसके बाद रश्मिका मंदाना ने दिल्ली पुलिस को शुक्रिया अदा किया है। रश्मिका ने अपने इंस्टा अकाउंट पर एक स्टोरी शेयर करते हुए लिखा, ‘इस केस के आरोपियों को पकड़ने के लिए मैं दिल्ली पुलिस का बहुत-बहुत धन्यवाद करती हूं। मैं उन सभी लोगों का दिल से आभार व्यक्त करना चाहती हूं, जो इस मुश्किल घड़ी में मेरे साथ खड़े रहे और मेरी मदद की।’
डीपफेक क्या होता है ?
डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे। किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।
“डीपफेक” कृत्रिम बुद्धिमत्ता (AI) के उपयोग से तैयार किया गया या मनोरंजन/मीडिया का वह अवास्तविक रूप है, जिसका उपयोग ऑडियो और विज़ुअल कंटेंट के माध्यम से लोगों को बहकाने अथवा गुमराह करने के लिये किया जा सकता है। डीपफेक शब्द आर्टिफिशियल इंटेलिजेंस (AI) के एक रूप से लिया गया है जिसे डीप लर्निंग कहा जाता है। जैसा कि नाम से पता चलता है, डीपफेक डीप लर्निंग का इस्तेमाल नकली घटनाओं की तस्वीरें बनाने के लिए किया जाता है।
कैसे काम करती है डीप फेक टेक्नोलॉजी?
डीप फेक बनाने के लिए कई तरीके हैं। हालांकि, सबसे आम डीप न्यूरल नेटवर्क का इस्तेमाल करने पर निर्भर करता है जिसमें फेस-स्वैपिंग टेक्नोलॉजी को लागू करने के लिए ऑटोएन्कोडर्स शामिल होते हैं। डीप फेक टेक्नोलॉजी की मदद से किसी दूसरे की फोटो या वीडियो पर किसी सेलिब्रिटी वीडियो के फ़ेस के साथ फ़ेस स्वैप कर दिया जाता है।
आसान भाषा में कहें तो इस टेक्नोलॉजी की मदद से AI का इस्तेमाल करके फेक वीडियो बनाई जाती हैं, जो देखने में बिलकुल असली लगती हैं लेकिन होती नहीं है। डीप फेक बनाना शुरुआती लोगों के लिए और भी आसान है, क्योंकि कई ऐप और सॉफ्टवेयर उन्हें बनाने में मदद करते हैं। GitHub एक ऐसी जगह भी है जहां भारी मात्रा में डीपफेक सॉफ्टवेयर पाए जा सकते हैं।
डीपफेक टेक्नोलॉजी के खतरे
1. डीपफेक टेक्नोलॉजी की मदद से किसी को बदनाम किया जा सकता है। डीप फेक का इस्तेमाल खास तौर से औरतों और लड़कियों को निशाना बनाती है।
2. किसी भी व्यक्ति की सोशल मीडिया प्रोफाइल से उसकी प्राइवेट फोटो लेकर उसके फेक पॉर्न वीडियो बनाए जा सकते हैं। किसी नेता का MMS बनाया जा सकता है।
3. इस टेक्नोलॉजी की मदद से ऐसे भाषण के वीडियो जारी किए जा सकते हैं जो उसने कभी दिए नहीं है।