लाइव न्यूज़ :

डॉक्टर विजय दर्डा का ब्लॉग: डीपफेक की खतरनाक दुनिया...!

By विजय दर्डा | Updated: November 27, 2023 06:53 IST

यदि डीपफेक वीडियोज भी अपराधियों का हथियार बन गया तो आप सहज ही अंदाजा लगा सकते हैं कि स्थिति कितनी खतरनाक और विस्फोटक हो जाएगी। स्थिति को विस्फोटक होने से बचाना है तो सबसे पहले अपने भीतर के डर को खत्म करना होगा।

Open in App

इन दिनों डीपफेक को लेकर हर जगह चर्चा गर्म है। यहां तक कि हमारे प्रधानमंत्री नरेंद्र मोदी ने भी इसे लेकर चिंता जाहिर की है। चिंता स्वाभाविक है क्योंकि इंटरनेट पर सवार होकर चलने वाले सोशल मीडिया का यदि एक ओर आम आदमी भरपूर उपयोग कर रहा है तो दूसरी ओर दुनिया के आतंकी संगठन भी इसका खूब फायदा उठा रहे हैं। यहां तक कि वे अपने संगठन में आतंकियों की भर्ती से लेकर सूचनाएं एकत्रित करने और सूचना का प्रसार करने के लिए भी सोशल मीडिया का धड़ल्ले से उपयोग कर रहे हैं, इसीलिए हमारी खुफिया एजेंसियों के लिए सोशल मीडिया प्लेटफॉर्म परेशानी का बड़ा कारण बना हुआ है।

दरअसल किसी भी चीज की तरह टेक्नोलॉजी के भी दो पहलू होते ही हैं। उसकी अच्छाई यह है कि लोग करीब आ गए हैं। दुनिया करीब आ गई है। आप देखिए कि मेडिकल क्षेत्र में कमाल की तरक्की हुई है। तकनीक लोगों की जान बचा रही है। शिक्षा के क्षेत्र में भी तकनीक का कमाल हम देख रहे हैं। दूर-दराज के गांवों में भी इंटरनेट के माध्यम से पढ़ाई हो रही है। मैं अखबार की ही बात बताऊं तो पहले यदि कोई अलग संस्करण शुरू करना होता था तो पूरा का पूरा सेटअप स्थापित करना होता था। बहुत पैसा खर्च होता था। कई संस्करण खड़ा करना उन्हीं के बूते में था जिनके पास बहुत पैसा हो लेकिन इंटरनेट के माध्यम से अब संस्करणों का विस्तार आसान हो गया है। डिफेंस और अंतरिक्ष के क्षेत्र में तकनीक का कमाल हम देख ही रहे हैं।

आपको याद होगा कि पहले किसी को फोन करना हो तो वह बड़ा कठिन और बहुत खर्चीला होता था लेकिन आज हर किसी के हाथ में मोबाइल है। इस तरह के और भी पहलू हैं और मुझे लगता है कि तकनीक की अच्छाइयां ज्यादा हैं। इसने जीवन को ज्यादा सुखद बनाया है लेकिन जिस तरह से हम ज्यादा खाने पर परेशान हो जाते हैं, वही स्थिति संभवत: यहां भी है। स्वाभाविक सी बात है कि बहुत सारी अच्छाइयों के साथ कुछ बुराइयां भी हैं जो हमें स्वाभाविक तौर पर परेशान कर रही हैं और संभव है कि भविष्य में ज्यादा परेशान करें। आर्टिफिशियल इंटेलिजेंस की जिन वैज्ञानिकों ने बुनियाद रखी, आज वही उसे लेकर आशंकित हो रहे हैं। दुनिया के दिग्गज कह रहे हैं कि हमें एआई के विभिन्न पहलुओं को गंभीरता के साथ देखना चाहिए। डीपफेक एक ऐसी ही चिंता है। जैसा कि नाम से ही स्पष्ट है, यह अंग्रेजी के दो शब्दों डीप यानी गहराई और फेक यानी फर्जी से बना है। जब कोई फर्जी वीडियो गहराई के साथ यानी इस तरह से तैयार किया जाए कि उसे पकड़ना मुश्किल हो तो उसे डीपफेक कहा जाता है। इसे आप  मॉर्फिंग  की उन्नत तकनीक भी कह सकते हैं। यूं तो मॉर्फिंग कोई नई बात नहीं है लेकिन जब उसमें तकनीकी उन्नति हो गई तो उसके ज्यादा खतरनाक हो जाने की आशंका स्वाभाविक है। 

पिछले दिनों इस आशंका को लेकर चर्चा तब शुरू हुई जब अभिनेत्री रश्मिका मंधाना का एक डीपफेक वीडियो इंटरनेट पर वायरल हुआ। उसके बाद काजोल और कटरीना कैफ के भी कुछ ऐसे वीडियो सामने आए जिसे डीपफेक की श्रेणी में रखा गया। फिर प्रधानमंत्री नरेंद्र मोदी ने भी कहा कि ऑनलाइन एक वीडियो में मुझे गरबा गाते हुए दिखाया गया है। इस तरह के और भी  फर्जी वीडियोज ऑनलाइन मौजूद हैं. डीपफेक डिजिटल युग के लिए बहुत बड़ा खतरा है. इसे हर हाल में रोकना होगा।   एआई यानी आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग सॉफ्टवेयर का इस्तेमाल करके डीपफेक वीडियोज इस तरह तैयार किए जाते हैं कि असली-नकली का भेद करना मुश्किल होता है. वॉयस क्लोनिंग सॉफ्टवेयर के माध्यम से अब किसी की भी आवाज की हूबहू नकल की जा सकती है, जो सुनने में बिल्कुल असली जैसा लगता है. हाल ही में कई लोगों को उनके जन्मदिन की बधाई देती किसी लड़की का वीडियो मिला। वो लड़की संबंधित व्यक्ति का नाम भी ले रही थी। इस तरह के वीडियोज बनाना कोई बहुत मुश्किल काम भी नहीं है। इंटरनेट पर ऐसे कई एप्प अभी भी मौजूद हैं जिनके सहारे इस तरह के वीडियो बनाए जा सकते हैं।

भारत में भले ही डीपफेक की चर्चा हम अभी कर रहे हैं लेकिन अमेरिका में कोई छह साल पहले कई सेलिब्रिटीज के पोर्न वीडियो पोस्ट किए गए। अभी तक किसी भारतीय सेलिब्रिटी के डीपफेक पोर्न वीडियो का मामला तो नहीं आया है लेकिन आ भी जाए तो क्या आश्चर्य है। किसी भी पोर्न वीडियो पर किसी का भी चेहरा घुला-मिला कर और आवाज की क्लोनिंग करके इस तरह की हरकत की जा सकती है!

हम धड़ल्ले से अपनी निजी जिंदगी की तस्वीरें और वीडियोज सोशल मीडिया पर डालते रहते हैं। हमें कोई भी तस्वीर और वीडियो डालते वक्त सावधान रहना चाहिए। इतना ही नहीं, हम कौन सी साइट देख रहे हैं, इसे लेकर भी सावधान रहना चाहिए। ऐसे भी मामले आए हैं कि कोई व्यक्ति जब पोर्न देख रहा होता है तो पोर्न स्क्रीन के साथ उसकी भी तस्वीर कैमरे में कैद हो जाती है और उसे ब्लैकमेल किए जाने का खतरा बढ़ जाता है। साइबर  ठगी के मामले लगातार बढ़ते जा रहे हैं। पिछले पांच सालों में साइबर ठगी के मामलों में तीन गुना इजाफा हुआ है।

ऐसे में यदि डीपफेक वीडियोज भी अपराधियों का हथियार बन गया तो आप सहज ही अंदाजा लगा सकते हैं कि स्थिति कितनी खतरनाक और विस्फोटक हो जाएगी। स्थिति को विस्फोटक होने से बचाना है तो सबसे पहले अपने भीतर के डर को खत्म करना होगा। जिस किसी का भी डीपफेक वीडियो सामने आता है, उसे तत्काल पुलिस के साइबर सेल के पास शिकायत दर्ज करानी चाहिए। यदि वीडियो फर्जी है तो फिर बदनामी का डर क्यों? इसलिए सोशल मीडिया का उपयोग करते वक्त सतर्क जरूर रहिए।

टॅग्स :रश्मिका मंदानाआर्टिफिशियल इंटेलिजेंसनरेंद्र मोदी
Open in App

संबंधित खबरें

भारतPariksha Pe Charcha 2026: 11 जनवरी तक कराएं पंजीकरण, पीएम मोदी करेंगे चर्चा, जनवरी 2026 में 9वां संस्करण

कारोबारIndiGo Crisis: 7 दिसंबर रात 8 बजे तक सभी यात्रियों को तत्काल पैसा वापस करो?, मोदी सरकार ने दिया आदेश, छूटे हुए सभी सामान अगले 48 घंटों के भीतर पहुंचाओ

भारतPutin Visit India: भारत का दौरा पूरा कर रूस लौटे पुतिन, जानें दो दिवसीय दौरे में क्या कुछ रहा खास

भारत‘पहलगाम से क्रोकस सिटी हॉल तक’: PM मोदी और पुतिन ने मिलकर आतंकवाद, व्यापार और भारत-रूस दोस्ती पर बात की

भारतModi-Putin Talks: यूक्रेन के संकट पर बोले पीएम मोदी, बोले- भारत न्यूट्रल नहीं है...

भारत अधिक खबरें

भारतकथावाचक इंद्रेश उपाध्याय और शिप्रा जयपुर में बने जीवनसाथी, देखें वीडियो

भारत2024 में महाराष्ट्र विधानसभा चुनाव, 2025 तक नेता प्रतिपक्ष नियुक्त नहीं?, उद्धव ठाकरे ने कहा-प्रचंड बहुमत होने के बावजूद क्यों डर रही है सरकार?

भारतजीवन रक्षक प्रणाली पर ‘इंडिया’ गठबंधन?, उमर अब्दुल्ला बोले-‘आईसीयू’ में जाने का खतरा, भाजपा की 24 घंटे चलने वाली चुनावी मशीन से मुकाबला करने में फेल

भारतजमीनी कार्यकर्ताओं को सम्मानित, सीएम नीतीश कुमार ने सदस्यता अभियान की शुरुआत की

भारतसिरसा जिलाः गांवों और शहरों में पर्याप्त एवं सुरक्षित पेयजल, जानिए खासियत