डीपफेक का शिकार हुई नोरा फतेही | Nora Fatehi | Deep Fake | क्या होता है डीपफेक? | जानिए डीपफेक के 3 सबसे बड़े खतरे

नोरा फतेही

डीपफेक का शिकार हुई नोरा फतेही

नोरा फतेही
नोरा फतेही

डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे। किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।

नोरा फतेही
नोरा फतेही

 “डीपफेक” कृत्रिम बुद्धिमत्ता (AI) के उपयोग से तैयार किया गया या मनोरंजन/मीडिया का वह अवास्तविक रूप है, जिसका उपयोग ऑडियो और विज़ुअल कंटेंट के माध्यम से लोगों को बहकाने अथवा गुमराह करने के लिये किया जा सकता है।   डीपफेक शब्द आर्टिफिशियल इंटेलिजेंस (AI) के एक रूप से लिया गया है जिसे डीप लर्निंग कहा जाता है। जैसा कि नाम से पता चलता है, डीपफेक डीप लर्निंग का इस्तेमाल नकली घटनाओं की तस्वीरें बनाने के लिए किया जाता है।

नोरा फतेही
नोरा फतेही

कैसे काम करती है डीप फेक टेक्नोलॉजी?

डीप फेक बनाने के लिए कई तरीके हैं। हालांकि, सबसे आम डीप न्यूरल नेटवर्क का इस्तेमाल करने पर निर्भर करता है जिसमें फेस-स्वैपिंग टेक्नोलॉजी को लागू करने के लिए ऑटोएन्कोडर्स शामिल होते हैं। डीप फेक टेक्नोलॉजी की मदद से किसी दूसरे की फोटो या वीडियो पर किसी सेलिब्रिटी वीडियो के फ़ेस के साथ फ़ेस स्वैप कर दिया जाता है। आसान भाषा में कहें तो इस टेक्नोलॉजी की मदद से AI का इस्तेमाल करके फेक वीडियो बनाई जाती हैं, जो देखने में बिलकुल असली लगती हैं लेकिन होती नहीं है। डीप फेक बनाना शुरुआती लोगों के लिए और भी आसान है, क्योंकि कई ऐप और सॉफ्टवेयर उन्हें बनाने में मदद करते हैं। GitHub एक ऐसी जगह भी है जहां भारी मात्रा में डीपफेक सॉफ्टवेयर पाए जा सकते हैं।

नोरा फतेही
नोरा फतेही

डीपफेक का शिकार हुई नोरा फतेही 

सचिन तेंदुलकर, रश्मिका मंदाना, कटरीना कैफ, आलिया भट्‌ट और काजोल समेत कई एक्ट्रेसेस के बाद अब नोरा फतेही का डीप फेक वीडियो सामने आया है। नोरा फतेही ने खुद अपने सोशल मीडिया अकाउंट पर इस वीडियो को शेयर किया है। इस वीडियो में नोरा जैसी दिखने वाली एक महिला एंड ऑफ सीजन सेल को प्रमोट करती नजर आ रही है। नोरा ने इस फोटो और वीडियो को अपने इंस्टाग्राम स्टोरीज पर शेयर करते हुए लिखा, ‘शॉक्ड, यह मैं नहीं हूं।’ एक्ट्रेस ने इसे फेक बताया। इस वीडियो में एक महिला एकदम नोरा जैसी आवाज में बोलते हुए किसी फैशन ब्रैंड की सेल को प्रमोट कर रही है।

नोरा फतेही
नोरा फतेही

वह महिला देखने में भी काफी हद तक नोरा फतेही जैसी ही दिखती है। इस फैशन ब्रैंड के सोशल मीडिया अकाउंट पर भी नोरा फतेही के कई फोटाेज और वीडियोज अपलोड किए गए हैं। हालांकि, उनमें से किसी में भी ना तो नोरा को टैग किया गया है और ना ही कहीं नोरा ने उस कंपनी के साथ कोलैबोरेट किया है।


सचिन तेंदुलकर हुए डीपफेक का शिकार | अगला नंबर हो सकता है आपका | जानिए डीप फेक के 3 सबसे बड़े खतरे | Sachin Tendulkar becomes the latest victim of deepfake.


ऐसे में साफ है कि इस अकाउंट के जरिए ऑनलाइन गारमेंट्स बेचने के नाम पर ठगी की जा रही है। दूसरी तरफ शनिवार को दिल्ली पुलिस ने एक्ट्रेस रश्मिका मंदाना के डीपफेक वीडियो मामले के मुख्य आरोपी 24 साल के इंजीनियर ईमानी नवीन को आंध्र प्रदेश से गिरफ्तार किया है। इसके बाद रश्मिका मंदाना ने दिल्ली पुलिस को शुक्रिया अदा किया है। रश्मिका ने अपने इंस्टा अकाउंट पर एक स्टोरी शेयर करते हुए लिखा, ‘इस केस के आरोपियों को पकड़ने के लिए मैं दिल्ली पुलिस का बहुत-बहुत धन्यवाद करती हूं। मैं उन सभी लोगों का दिल से आभार व्यक्त करना चाहती हूं, जो इस मुश्किल घड़ी में मेरे साथ खड़े रहे और मेरी मदद की।’

नोरा फतेही
नोरा फतेही

डीपफेक क्या होता है ?

डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे। किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।

 “डीपफेक” कृत्रिम बुद्धिमत्ता (AI) के उपयोग से तैयार किया गया या मनोरंजन/मीडिया का वह अवास्तविक रूप है, जिसका उपयोग ऑडियो और विज़ुअल कंटेंट के माध्यम से लोगों को बहकाने अथवा गुमराह करने के लिये किया जा सकता है।   डीपफेक शब्द आर्टिफिशियल इंटेलिजेंस (AI) के एक रूप से लिया गया है जिसे डीप लर्निंग कहा जाता है। जैसा कि नाम से पता चलता है, डीपफेक डीप लर्निंग का इस्तेमाल नकली घटनाओं की तस्वीरें बनाने के लिए किया जाता है।

कैसे काम करती है डीप फेक टेक्नोलॉजी?

डीप फेक बनाने के लिए कई तरीके हैं। हालांकि, सबसे आम डीप न्यूरल नेटवर्क का इस्तेमाल करने पर निर्भर करता है जिसमें फेस-स्वैपिंग टेक्नोलॉजी को लागू करने के लिए ऑटोएन्कोडर्स शामिल होते हैं। डीप फेक टेक्नोलॉजी की मदद से किसी दूसरे की फोटो या वीडियो पर किसी सेलिब्रिटी वीडियो के फ़ेस के साथ फ़ेस स्वैप कर दिया जाता है।


Anjali Arora instagram: आपका तापमान बढ़ा देंगी अंजलि अरोड़ा की ट्रेंडिंग, हॉट, देसी और साउथ डांस रील्स | Anjali Arora’s top 5 instagram reels , hot, desi Attractive dance on south song will Definitely elevate your temperature.


 

आसान भाषा में कहें तो इस टेक्नोलॉजी की मदद से AI का इस्तेमाल करके फेक वीडियो बनाई जाती हैं, जो देखने में बिलकुल असली लगती हैं लेकिन होती नहीं है। डीप फेक बनाना शुरुआती लोगों के लिए और भी आसान है, क्योंकि कई ऐप और सॉफ्टवेयर उन्हें बनाने में मदद करते हैं। GitHub एक ऐसी जगह भी है जहां भारी मात्रा में डीपफेक सॉफ्टवेयर पाए जा सकते हैं। 

डीपफेक टेक्नोलॉजी के खतरे

1. डीपफेक टेक्नोलॉजी की मदद से किसी को बदनाम किया जा सकता है। डीप फेक का इस्तेमाल खास तौर से औरतों और लड़कियों को निशाना बनाती है।

2. किसी भी व्यक्ति की सोशल मीडिया प्रोफाइल से उसकी प्राइवेट फोटो लेकर उसके फेक पॉर्न वीडियो बनाए जा सकते हैं। किसी नेता का MMS बनाया जा सकता है।

3. इस टेक्नोलॉजी की मदद से ऐसे भाषण के वीडियो जारी किए जा सकते हैं जो उसने कभी दिए नहीं है।


Fore More Details:-https://www.instagram.com/norafatehi/?hl=en


—Thanks For Reading—

2 thoughts on “डीपफेक का शिकार हुई नोरा फतेही | Nora Fatehi | Deep Fake | क्या होता है डीपफेक? | जानिए डीपफेक के 3 सबसे बड़े खतरे

  1. Pingback: रामलला

Leave a Reply

Your email address will not be published. Required fields are marked *