डॉक्टर विजय दर्डा का ब्लॉग: डीपफेक की खतरनाक दुनिया...!

By विजय दर्डा | Published: November 27, 2023 06:53 AM2023-11-27T06:53:05+5:302023-11-27T06:53:05+5:30

यदि डीपफेक वीडियोज भी अपराधियों का हथियार बन गया तो आप सहज ही अंदाजा लगा सकते हैं कि स्थिति कितनी खतरनाक और विस्फोटक हो जाएगी। स्थिति को विस्फोटक होने से बचाना है तो सबसे पहले अपने भीतर के डर को खत्म करना होगा।

The dangerous world of deepfakes, Dr. Vijay Darda's blog | डॉक्टर विजय दर्डा का ब्लॉग: डीपफेक की खतरनाक दुनिया...!

डॉक्टर विजय दर्डा का ब्लॉग: डीपफेक की खतरनाक दुनिया...!

इन दिनों डीपफेक को लेकर हर जगह चर्चा गर्म है। यहां तक कि हमारे प्रधानमंत्री नरेंद्र मोदी ने भी इसे लेकर चिंता जाहिर की है। चिंता स्वाभाविक है क्योंकि इंटरनेट पर सवार होकर चलने वाले सोशल मीडिया का यदि एक ओर आम आदमी भरपूर उपयोग कर रहा है तो दूसरी ओर दुनिया के आतंकी संगठन भी इसका खूब फायदा उठा रहे हैं। यहां तक कि वे अपने संगठन में आतंकियों की भर्ती से लेकर सूचनाएं एकत्रित करने और सूचना का प्रसार करने के लिए भी सोशल मीडिया का धड़ल्ले से उपयोग कर रहे हैं, इसीलिए हमारी खुफिया एजेंसियों के लिए सोशल मीडिया प्लेटफॉर्म परेशानी का बड़ा कारण बना हुआ है।

दरअसल किसी भी चीज की तरह टेक्नोलॉजी के भी दो पहलू होते ही हैं। उसकी अच्छाई यह है कि लोग करीब आ गए हैं। दुनिया करीब आ गई है। आप देखिए कि मेडिकल क्षेत्र में कमाल की तरक्की हुई है। तकनीक लोगों की जान बचा रही है। शिक्षा के क्षेत्र में भी तकनीक का कमाल हम देख रहे हैं। दूर-दराज के गांवों में भी इंटरनेट के माध्यम से पढ़ाई हो रही है। मैं अखबार की ही बात बताऊं तो पहले यदि कोई अलग संस्करण शुरू करना होता था तो पूरा का पूरा सेटअप स्थापित करना होता था। बहुत पैसा खर्च होता था। कई संस्करण खड़ा करना उन्हीं के बूते में था जिनके पास बहुत पैसा हो लेकिन इंटरनेट के माध्यम से अब संस्करणों का विस्तार आसान हो गया है। डिफेंस और अंतरिक्ष के क्षेत्र में तकनीक का कमाल हम देख ही रहे हैं।

आपको याद होगा कि पहले किसी को फोन करना हो तो वह बड़ा कठिन और बहुत खर्चीला होता था लेकिन आज हर किसी के हाथ में मोबाइल है। इस तरह के और भी पहलू हैं और मुझे लगता है कि तकनीक की अच्छाइयां ज्यादा हैं। इसने जीवन को ज्यादा सुखद बनाया है लेकिन जिस तरह से हम ज्यादा खाने पर परेशान हो जाते हैं, वही स्थिति संभवत: यहां भी है। स्वाभाविक सी बात है कि बहुत सारी अच्छाइयों के साथ कुछ बुराइयां भी हैं जो हमें स्वाभाविक तौर पर परेशान कर रही हैं और संभव है कि भविष्य में ज्यादा परेशान करें। आर्टिफिशियल इंटेलिजेंस की जिन वैज्ञानिकों ने बुनियाद रखी, आज वही उसे लेकर आशंकित हो रहे हैं। दुनिया के दिग्गज कह रहे हैं कि हमें एआई के विभिन्न पहलुओं को गंभीरता के साथ देखना चाहिए।
 
डीपफेक एक ऐसी ही चिंता है। जैसा कि नाम से ही स्पष्ट है, यह अंग्रेजी के दो शब्दों डीप यानी गहराई और फेक यानी फर्जी से बना है। जब कोई फर्जी वीडियो गहराई के साथ यानी इस तरह से तैयार किया जाए कि उसे पकड़ना मुश्किल हो तो उसे डीपफेक कहा जाता है। इसे आप  मॉर्फिंग  की उन्नत तकनीक भी कह सकते हैं। यूं तो मॉर्फिंग कोई नई बात नहीं है लेकिन जब उसमें तकनीकी उन्नति हो गई तो उसके ज्यादा खतरनाक हो जाने की आशंका स्वाभाविक है। 

पिछले दिनों इस आशंका को लेकर चर्चा तब शुरू हुई जब अभिनेत्री रश्मिका मंधाना का एक डीपफेक वीडियो इंटरनेट पर वायरल हुआ। उसके बाद काजोल और कटरीना कैफ के भी कुछ ऐसे वीडियो सामने आए जिसे डीपफेक की श्रेणी में रखा गया। फिर प्रधानमंत्री नरेंद्र मोदी ने भी कहा कि ऑनलाइन एक वीडियो में मुझे गरबा गाते हुए दिखाया गया है। इस तरह के और भी  फर्जी वीडियोज ऑनलाइन मौजूद हैं. डीपफेक डिजिटल युग के लिए बहुत बड़ा खतरा है. इसे हर हाल में रोकना होगा। 
  
एआई यानी आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग सॉफ्टवेयर का इस्तेमाल करके डीपफेक वीडियोज इस तरह तैयार किए जाते हैं कि असली-नकली का भेद करना मुश्किल होता है. वॉयस क्लोनिंग सॉफ्टवेयर के माध्यम से अब किसी की भी आवाज की हूबहू नकल की जा सकती है, जो सुनने में बिल्कुल असली जैसा लगता है. हाल ही में कई लोगों को उनके जन्मदिन की बधाई देती किसी लड़की का वीडियो मिला। वो लड़की संबंधित व्यक्ति का नाम भी ले रही थी। इस तरह के वीडियोज बनाना कोई बहुत मुश्किल काम भी नहीं है। इंटरनेट पर ऐसे कई एप्प अभी भी मौजूद हैं जिनके सहारे इस तरह के वीडियो बनाए जा सकते हैं।

भारत में भले ही डीपफेक की चर्चा हम अभी कर रहे हैं लेकिन अमेरिका में कोई छह साल पहले कई सेलिब्रिटीज के पोर्न वीडियो पोस्ट किए गए। अभी तक किसी भारतीय सेलिब्रिटी के डीपफेक पोर्न वीडियो का मामला तो नहीं आया है लेकिन आ भी जाए तो क्या आश्चर्य है। किसी भी पोर्न वीडियो पर किसी का भी चेहरा घुला-मिला कर और आवाज की क्लोनिंग करके इस तरह की हरकत की जा सकती है!

हम धड़ल्ले से अपनी निजी जिंदगी की तस्वीरें और वीडियोज सोशल मीडिया पर डालते रहते हैं। हमें कोई भी तस्वीर और वीडियो डालते वक्त सावधान रहना चाहिए। इतना ही नहीं, हम कौन सी साइट देख रहे हैं, इसे लेकर भी सावधान रहना चाहिए। ऐसे भी मामले आए हैं कि कोई व्यक्ति जब पोर्न देख रहा होता है तो पोर्न स्क्रीन के साथ उसकी भी तस्वीर कैमरे में कैद हो जाती है और उसे ब्लैकमेल किए जाने का खतरा बढ़ जाता है। साइबर  ठगी के मामले लगातार बढ़ते जा रहे हैं। पिछले पांच सालों में साइबर ठगी के मामलों में तीन गुना इजाफा हुआ है।

ऐसे में यदि डीपफेक वीडियोज भी अपराधियों का हथियार बन गया तो आप सहज ही अंदाजा लगा सकते हैं कि स्थिति कितनी खतरनाक और विस्फोटक हो जाएगी। स्थिति को विस्फोटक होने से बचाना है तो सबसे पहले अपने भीतर के डर को खत्म करना होगा। जिस किसी का भी डीपफेक वीडियो सामने आता है, उसे तत्काल पुलिस के साइबर सेल के पास शिकायत दर्ज करानी चाहिए। यदि वीडियो फर्जी है तो फिर बदनामी का डर क्यों? इसलिए सोशल मीडिया का उपयोग करते वक्त सतर्क जरूर रहिए।

Web Title: The dangerous world of deepfakes, Dr. Vijay Darda's blog

भारत से जुड़ीहिंदी खबरोंऔर देश दुनिया खबरोंके लिए यहाँ क्लिक करे.यूट्यूब चैनल यहाँ इब करें और देखें हमारा एक्सक्लूसिव वीडियो कंटेंट. सोशल से जुड़ने के लिए हमारा Facebook Pageलाइक करे