डीपफेक : तकनीक पर नकेल जरूरी

Last Updated 18 Nov 2023 12:37:42 PM IST

कहीं का ईंट कहीं का रोड़ा, भानुमति ने कुनबा जोड़ा। कंप्यूटर तकनीक की दुरुपयोग के संदर्भ में डीपफेक का खेल आज यही चरितार्थ कर रहा है।


डीपफेक : तकनीक पर नकेल जरूरी

यानी किसी का चेहरा किसी में लगाकर, किसी का वीडियो किसी में मिलाकर ऐसा नकली फोटो या वीडियो बना दिया जाता है, जिसको साधारणतया समझना मुश्किल होता है कि वह असली है या नकली। एडवांस्ड टेक्नोलॉजी आज हमें अजब-गजब की दुनिया दिखा रही है। यह हमारी संभावनाओं के द्वार जरूर खोलती हैं, मगर जब तकनीक का गलत इस्तेमाल होने लगे, किसी की निजी हानि होने लगे तो यह वाकई चिंता का सबब है और समाज के लिए घातक।

फिल्म अभिनेत्री रश्मिका मंदाना के फेक वीडियो ने सारी तकनीकी करतूत की कलई खोलकर रख दी है। इस मुद्दे पर न केवल चर्चा करने बल्कि इसके दुरु पयोग पर अंकुश लगाने का वक्त आ गया है। सनद रहे कि डीप फेक का मतलब यहां घोर नकली होना है। इस तकनीक की हेराफेरी से किसी के चेहरे का फोटो या वीडियो आसानी से तोड़ा-मरोड़ा जा सकता है। किसी के आवाज की नकल की जा सकती है। जाहिर है, इससे समाज में खतरे की आशंका बढ़ जाती है। आज सोशल मीडिया प्लेटफॉर्म या इंटरनेट के माध्यमों पर ऐसी हेरा-फेरी खूब चल रही है। फेक वीडियो की बात करें तो अमेरिका के पूर्व राष्ट्रपति डोनाल्ड ट्रंप का एक नकली वीडियो जारी हुआ था, जिसमें वह बेल्जियम से पेरिस जलवायु समझौते से अपना नाम वापस लेने की बात कर रहे थे। वैसे ही, एक वीडियो में रूस के राष्ट्रपति ब्लादिमीर पुतिन रूस-यूक्रेन युद्ध की समाप्ति की घोषणा कर रहे थे। मार्क जुकरबर्ग एक वीडियो में यह कहते पाए गए कि उनके पास अर्बन लोगों के चुराए हुए डेटा पर पूरा कंट्रोल है। यह सब बिल्कुल नकली था और डीप फेक तकनीक के सहारे तैयार किया गया था।

यूके की एक एनर्जी कंपनी के प्रमुख के साथ ऐसा हुआ। उसे उसके जर्मन सीईओ की आवाज में फोन आया और. उसने पैसे भेज दिए। महिलाओं को जितना रोजमर्रा की जिंदगी में निशाना बनाया गया है, इस कारण उतना ही वह वर्चुअल वर्ल्ड में भी शिकार हुई हैं। रश्मिका मंदाना का वायरल वीडियो इसी तकनीक का परिणाम है। हालांकि पुलिस ने प्रभावित तरीके से इस अपराध के खिलाफ एक्शन लेना शुरू कर दिया है। डीप फेक वीडियो को लेकर भारत समेत दुनिया भर में चर्चा हो रही है कि इस वजह से हमारी गोपनीयता और निजता प्रभावित हो रही है। भविष्य में इसका इस्तेमाल बड़े पैमाने पर किया जा सकता है, जिससे हमें सावधान रहना चाहिए। भारत में पूरे साल किसी न किसी राज्य में चुनाव होता रहता है।

जरा सोचिए कि किसी बड़े नेता की आवाज का इस्तेमाल धार्मिंक भावनाओं को ठेस पहुंचाने, कट्टर सोच को बढ़ावा देने, दूसरी पार्टी के किसी बड़े नेताओं पर संगीन आरोप लगाने या गलत जानकारी देने में किया गया तो मामला कितना गंभीर हो सकता है। यदि कोई फेक न्यूज बनाकर समाज में अशांति पैदा करने और महिलाओं को बदनाम करने के हथियार के रूप में इसे इस्तेमाल कर रहा है तो कितना दुखद है। इसे हम ‘डिजिटल आतंकवाद’ भी कह सकते हैं। इस पर हम सबको सतर्कता दिखाने की जरूरत है। यदि आपको सोशल मीडिया के किसी प्लेटफार्म पर कोई आपत्तिजनक चीज दिखे तो इस प्लेटफार्म को आप ईमेल के जरिए या पत्र लिखकर डिलीट करने का अनुरोध भेज सकते हैं। यदि 36 घंटे के भीतर उसे डिलीट नहीं किया तो आप उस पर कानूनी कार्रवाई कर सकते हैं।

डीप फेक टेक्नोलॉजी के कुछ सकारात्मक पहलू भी हैं, जैसे इसके उपयोग से विदेशी भाषा की फिल्में डबिंग कर बेहतर बनाया जा सकता है। जो अभिनेता या शख्सियत हमारे बीच आज नहीं है, उनकी आवाज या फोटो को पुन: प्रदर्शित किया जा सकता है। मास्को में ऐसा हुआ है, वहां सैमसंग आर्टिफिशियल इंटेलिजेंस लेमिनेट दी फेक तकनीक के उपयोग से मोनालिसा के जीवन को पुन: प्रदर्शित किया गया। इस तकनीक से स्क्लेरोसिस नामक रोग के रोगियों की आवाज को वापस लाया गया, तो कहीं युद्धग्रस्त क्षेत्र के लोगों में सहानुभूति पैदा करने में यह तकनीक सहायक बनीं। मगर चिंता इस बात की है कि इसके दुरुपयोग से समाज में जो घटनाएं घट रही हैं, उन्हें कैसे रोका जाए?

हमारी सरकार और हमें इस तकनीक के प्रति जागरूक बनना पड़ेगा और हमें तकनीकी रूप से साक्षर भी होना पड़ेगा। डीप फेक टेक्नोलॉजी क्या है? इसकी पड़ताल जरूरी है। सरकार को सबसे पहले एक कानूनी ढांचा लाना चाहिए, जिससे इस तकनीकी के प्रयोग पर अंकुश लगाया जा सके। चूंकि यह मामला सेलिब्रिटी से जुड़ा था तो ज्यादा उछल गया। किसी आम आदमी का होता तो उसकी कितनी निजी क्षति होती, इसका अंदाजा लगाना मुश्किल है। सार्वजनिक जीवन जीने वालों को इसकी चिंता जरूर होनी चाहिए। पत्रकारों और लेखकों को भी ऐसे गंभीर विषय पर अपनी कलम चलानी चाहिए।

सुशील देव


Post You May Like..!!

Latest News

Entertainment