Site icon Hindi News Ustaad

सचिन तेंदुलकर हुए डीपफेक का शिकार | अगला नंबर हो सकता है आपका | जानिए डीप फेक के 3 सबसे बड़े खतरे | Sachin Tendulkar becomes the latest victim of deepfake.

सचिन तेंदुलकर हुए डीपफेक का शिकार

सचिन तेंदुलकर

पूर्व क्रिकेटर सचिन तेंदुलकर भी डीपफेक का शिकार हुए हैं। उनका एक वीडियो सोशल मीडिया पर वायरल हो रहा है, जिसमें सचिन तेंदुलकर ‘स्काईवर्ड एविएटर क्वेस्ट’ गेमिंग ऐप को प्रमोट करते नजर आ रहे हैं। इस वीडियो में सचिन तेंदुलकर बिलकुल असली नज़र आ रहे हैं, खुद सचिन तेंदुलकर ने सोशल मीडिया पर इस वीडियो को पोस्ट करके लिखा कि ये वीडियो नकली है और आपको धोखा देने के लिए बनाया गया है। टेक्नोलॉजी का इस प्रकार का दुरुपयोग बिल्कुल गलत है। उन्होंने इस मैसेज के साथ भारत सरकार, सूचना एवं प्रसारण राज्य मंत्री राजीव चंद्रशेखर और महाराष्ट्र साइबर पुलिस को टैग किया है। इस फेक वीडियो में वे ये कहते नजर आते हैं, सचिन तेंदुलकर की बेटी सारा इस गेम से हर दिन बड़ी रकम निकालती है। वे लोगों को बताते हैं कि मैं यह देखकर आश्चर्यचकित हूं कि अब अच्छा पैसा कमाना कितना आसान हो गया है।

Deep Fake

पिछले साल नवंबर में रश्मिका मंदाना का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हआ था, जिसमें AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर बड़ी सफाई से रश्मिका का चेहरा मोर्फ किया गया था। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली समझ लिया क्योंकि उसमें दिख रहे एक्सप्रेशन बिल्कुल रियल लग रहे थे।

Deep Fake

डीपफेक क्या होता है ?

डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे।


राम मंदिर में रामलला का स्वागत 22 जनवरी को प्राण प्रतिष्ठा | जानिए किसने बनाई है राम लला की मूर्ति | 15-15 दिनों तक घर वालों से बात नहीं करता था मूर्तिकार | The Biggest Devotional Stipe! | devoted to devotees |


किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।

Deep Fake

डीपफेक” कृत्रिम बुद्धिमत्ता (AI) के उपयोग से तैयार किया गया या मनोरंजन/मीडिया का वह अवास्तविक रूप है, जिसका उपयोग ऑडियो और विज़ुअल कंटेंट के माध्यम से लोगों को बहकाने अथवा गुमराह करने के लिये किया जा सकता है। “डीपफेक” शब्द आर्टिफिशियल इंटेलिजेंस (AI) के एक रूप से लिया गया है जिसे डीप लर्निंग कहा जाता है। जैसा कि नाम से पता चलता है, डीपफेक डीप लर्निंग का इस्तेमाल नकली घटनाओं की तस्वीरें बनाने के लिए किया जाता है।

Deep Fake

कैसे काम करती है डीप फेक टेक्नोलॉजी?

डीप फेक बनाने के लिए कई तरीके हैं। हालांकि, सबसे आम डीप न्यूरल नेटवर्क का इस्तेमाल करने पर निर्भर करता है जिसमें फेस-स्वैपिंग टेक्नोलॉजी को लागू करने के लिए ऑटोएन्कोडर्स शामिल होते हैं। डीप फेक टेक्नोलॉजी की मदद से किसी दूसरे की फोटो या वीडियो पर किसी सेलिब्रिटी वीडियो के फ़ेस के साथ फ़ेस स्वैप कर दिया जाता है। आसान भाषा में कहें तो इस टेक्नोलॉजी की मदद से AI का इस्तेमाल करके फेक वीडियो बनाई जाती हैं, जो देखने में बिलकुल असली लगती हैं लेकिन होती नहीं है। डीप फेक बनाना शुरुआती लोगों के लिए और भी आसान है, क्योंकि कई ऐप और सॉफ्टवेयर उन्हें बनाने में मदद करते हैं। GitHub एक ऐसी जगह भी है जहां भारी मात्रा में डीपफेक सॉफ्टवेयर पाए जा सकते हैं।

Deep Fake

डीपफेक टेक्नोलॉजी के खतरे:-

  1. डीपफेक टेक्नोलॉजी की मदद से किसी को बदनाम किया जा सकता है। डीप फेक का इस्तेमाल खास तौर से औरतों और लड़कियों को निशाना बनाती है।

  2. किसी भी व्यक्ति की सोशल मीडिया प्रोफाइल से उसकी प्राइवेट फोटो लेकर उसके फेक पॉर्न वीडियो बनाए जा सकते हैं। किसी नेता का MMS बनाया जा सकता है।

  3. इस टेक्नोलॉजी की मदद से ऐसे भाषण के वीडियो जारी किए जा सकते हैं जो उसने कभी दिए नहीं है।


    For More Details Go To:-https://www.instagram.com/sachintendulkar/?hl=en