सचिन तेंदुलकर हुए डीपफेक का शिकार | अगला नंबर हो सकता है आपका | जानिए डीप फेक के 3 सबसे बड़े खतरे | Sachin Tendulkar becomes the latest victim of deepfake.
mohitsharma4255
सचिन तेंदुलकर हुए डीपफेक का शिकार
पूर्व क्रिकेटर सचिन तेंदुलकर भी डीपफेक का शिकार हुए हैं। उनका एक वीडियो सोशल मीडिया पर वायरल हो रहा है, जिसमें सचिन तेंदुलकर ‘स्काईवर्ड एविएटर क्वेस्ट’ गेमिंग ऐप को प्रमोट करते नजर आ रहे हैं। इस वीडियो में सचिन तेंदुलकर बिलकुल असली नज़र आ रहे हैं, खुद सचिन तेंदुलकर ने सोशल मीडिया पर इस वीडियो को पोस्ट करके लिखा कि ये वीडियो नकली है और आपको धोखा देने के लिए बनाया गया है। टेक्नोलॉजी का इस प्रकार का दुरुपयोग बिल्कुल गलत है। उन्होंने इस मैसेज के साथ भारत सरकार, सूचना एवं प्रसारण राज्य मंत्री राजीव चंद्रशेखर और महाराष्ट्र साइबर पुलिस को टैग किया है। इस फेक वीडियो में वे ये कहते नजर आते हैं, सचिन तेंदुलकर की बेटी सारा इस गेम से हर दिन बड़ी रकम निकालती है। वे लोगों को बताते हैं कि मैं यह देखकर आश्चर्यचकित हूं कि अब अच्छा पैसा कमाना कितना आसान हो गया है।
पिछले साल नवंबर में रश्मिका मंदाना का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हआ था, जिसमें AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर बड़ी सफाई से रश्मिका का चेहरा मोर्फ किया गया था। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली समझ लिया क्योंकि उसमें दिख रहे एक्सप्रेशन बिल्कुल रियल लग रहे थे।
डीपफेक क्या होता है ?
डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे।
किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।
“डीपफेक”कृत्रिम बुद्धिमत्ता (AI) के उपयोग से तैयार किया गया यामनोरंजन/मीडिया का वह अवास्तविक रूप है, जिसका उपयोग ऑडियो और विज़ुअल कंटेंट के माध्यम से लोगों को बहकाने अथवा गुमराह करने के लिये किया जा सकता है। “डीपफेक” शब्द आर्टिफिशियल इंटेलिजेंस (AI) के एक रूप से लिया गया है जिसे डीप लर्निंग कहा जाता है। जैसा कि नाम से पता चलता है, डीपफेक डीप लर्निंग का इस्तेमाल नकली घटनाओं की तस्वीरें बनाने के लिए किया जाता है।
कैसे काम करती है डीप फेक टेक्नोलॉजी?
डीप फेक बनाने के लिए कई तरीके हैं। हालांकि, सबसे आम डीप न्यूरल नेटवर्क का इस्तेमाल करने पर निर्भर करता है जिसमें फेस-स्वैपिंग टेक्नोलॉजी को लागू करने के लिए ऑटोएन्कोडर्स शामिल होते हैं। डीप फेक टेक्नोलॉजी की मदद से किसी दूसरे की फोटो या वीडियो पर किसी सेलिब्रिटी वीडियो के फ़ेस के साथ फ़ेस स्वैप कर दिया जाता है।आसान भाषा में कहें तो इस टेक्नोलॉजी की मदद से AI का इस्तेमाल करके फेक वीडियो बनाई जाती हैं, जो देखने में बिलकुल असली लगती हैं लेकिन होती नहीं है। डीप फेक बनाना शुरुआती लोगों के लिए और भी आसान है, क्योंकि कई ऐप और सॉफ्टवेयर उन्हें बनाने में मदद करते हैं। GitHub एक ऐसी जगह भी है जहां भारी मात्रा में डीपफेक सॉफ्टवेयर पाए जा सकते हैं।
डीपफेक टेक्नोलॉजी के खतरे:-
डीपफेक टेक्नोलॉजी की मदद से किसी को बदनाम किया जा सकता है। डीप फेक का इस्तेमाल खास तौर से औरतों और लड़कियों को निशाना बनाती है।
किसी भी व्यक्ति की सोशल मीडिया प्रोफाइल से उसकी प्राइवेट फोटो लेकर उसके फेक पॉर्न वीडियो बनाए जा सकते हैं। किसी नेता का MMS बनाया जा सकता है।
इस टेक्नोलॉजी की मदद से ऐसे भाषण के वीडियो जारी किए जा सकते हैं जो उसने कभी दिए नहीं है।