Deepfake: डीपफेक वीडियो को लेकर रश्मिका मंदाना संकट में!, भविष्य के खतरों से समय रहते सतर्क होने की जरूरत

By लोकमत समाचार सम्पादकीय | Published: November 8, 2023 11:31 AM2023-11-08T11:31:25+5:302023-11-08T11:32:17+5:30

Deepfake Rashmika Mandanna's morphed video row: इंटरनेट पर वायरल हो रहे किसी दूसरी लड़की के इस वीडियो में रश्मिका मंदाना का चेहरा लगा दिया गया है और यह इतना वास्तविक दिखता है कि कोई भी धोखा खा जाए.

Deepfake Rashmika Mandanna's morphed video row trouble due need to be alert in time about future dangers | Deepfake: डीपफेक वीडियो को लेकर रश्मिका मंदाना संकट में!, भविष्य के खतरों से समय रहते सतर्क होने की जरूरत

file photo

Highlights कुछ मामूली चीजों की हूबहू नकल नहीं की जा सकी है.आर्टिफिशियल इंटेलिजेंस को जिस तरह से परिष्कृत करके परिपूर्ण बनाने की कोशिश की जा रही है.कम से कम आम आदमी के लिए तो उसमें फर्क कर पाना नामुमकिन ही होगा.

Deepfake Rashmika Mandanna's morphed video row: फिल्म अभिनेत्री रश्मिका मंदाना का इन दिनों चर्चा में छाया डीपफेक वीडियो एक ऐसे गंभीर संकट की ओर इशारा कर रहा है जिसके आने वाले दिनों में बहुत ज्यादा गहराने की आशंका है.

इंटरनेट पर वायरल हो रहे किसी दूसरी लड़की के इस वीडियो में रश्मिका मंदाना का चेहरा लगा दिया गया है और यह इतना वास्तविक दिखता है कि कोई भी धोखा खा जाए. हालांकि बारीकी से देखने पर समझा जा सकता है कि यह वीडियो फेक है क्योंकि कुछ मामूली चीजों की हूबहू नकल नहीं की जा सकी है.

लेकिन आर्टिफिशियल इंटेलिजेंस को जिस तरह से परिष्कृत करके परिपूर्ण बनाने की कोशिश की जा रही है, उससे पूरी आशंका है कि निकट भविष्य में ही असली और नकली की पहचान कर पाना लगभग असंभव हो जाएगा. कम से कम आम आदमी के लिए तो उसमें फर्क कर पाना नामुमकिन ही होगा.

ऐसा नहीं है कि रश्मिका मंदाना का मामला अपने तरह का पहला है या डीपफेक की तकनीक रातोंरात आ गई है. पोर्नोग्राफी में तो इस तरह के कंटेंट की भरमार है और डीपट्रेस की रिपोर्ट के अनुसार वर्ष 2019 में ऑनलाइन पाए गए डीपफेक वीडियो में 96 प्रतिशत अश्लील कंटेंट था. चूंकि रश्मिका का मामला सुर्खियों में है और अमिताभ बच्चन सहित कई बड़ी हस्तियों ने इस पर चिंता जताई है.

इसलिए  बड़े पैमाने पर लोगों का ध्यान इस ओर गया है. डीपफेक एक बहुत जटिल तकनीक है और मशीन लर्निंग में दक्ष लोग ही इसमें महारत हासिल कर सकते हैं. दरअसल डीपफेक शब्द डीप लर्निंग से ही आया है, जो मशीन लर्निंग का एक हिस्सा है. डीपफेक कंटेंट दो एल्गोरिद्‌म, डिकोडर और एनकोडर का उपयोग करके बनाया जाता है.

डिकोडर कंटेंट की रियल या फेक के रूप में पहचान करता है और उस जानकारी को एनकोडर को भेज देता है ताकि वह फेक नजर आने कंटेंट की गलतियां सुधार कर उसे एकदम असली जैैसा बना सके. जाहिर है कि जो मामूली गलतियां छूट जाने की वजह से अभी असली और नकली की पहचान हो पाती है.

डीपफेक तकनीक भविष्य में उन गलतियों को भी दुरुस्त कर लेगी और असली संकट उसी समय शुरू होगा क्योंकि तब असली-नकली की पहचान कर पाना असंभव जैसा हो जाएगा. इन दिनों कृत्रिम बुद्धिमत्ता अर्थात आर्टिफिशियल इंटेलिजेंस की चर्चा का बाजार भी गरम है.

उसकी क्षमता को देखते हुए मनुष्य की प्रतिभा के सामने खतरा मंडराने की आशंका जताई जा रही है. लेकिन डीप फेक के दुरुपयोग से जो परिदृश्य सामने आने की आशंका जताई जा रही है, वह बेहद खतरनाक है और अभी इस ओर ध्यान न दिया गया तो ऐसा न हो कि फिर समय हाथ से निकल जाए! 

Web Title: Deepfake Rashmika Mandanna's morphed video row trouble due need to be alert in time about future dangers

बॉलीवुड चुस्की से जुड़ीहिंदी खबरोंऔर देश दुनिया खबरोंके लिए यहाँ क्लिक करे.यूट्यूब चैनल यहाँ इब करें और देखें हमारा एक्सक्लूसिव वीडियो कंटेंट. सोशल से जुड़ने के लिए हमारा Facebook Pageलाइक करे