For the best experience, open
https://m.dainiktribuneonline.com
on your mobile browser.

छलिया और छलने की दुनिया डीपफ़ेक

10:24 AM Dec 03, 2023 IST
छलिया और छलने की दुनिया डीपफ़ेक
Advertisement

डीपफेक तकनीक के गलत इस्तेमाल के चलते ऑनलाइन दुनिया में लोगों की सुरक्षा चिंताएं और बढ़ गयी हैं। हाल ही में कुछ अभिनेत्रियों के हूबहू असली जैसे लगने वाले नकली वीडियो सोशल मीडिया पर वायरल हुए। किसी ओर के मूल वीडियो में चेहरा इन एक्ट्रेस का चस्पां था। दरअसल, आर्टिफिशियल इंटेलीजेंस से किसी व्यक्ति की फर्जी (डीपफ़ेक) इमेज़ या वीडियो बनाये जा सकते हैं। कंप्यूटर या फोन पर लोग किसी भी फोटो, ऑडियो या वीडियो को किसी और शख्स की फोटो-वीडियो आदि में बदल सकते हैं। हालांकि डीपफेक वीडियो की थोड़ी-बहुत पहचान पात्र के पलक न झपकने आदि से हो सकती है।

डॉ. संजय वर्मा

Advertisement

लेखक एसोसिएट प्रोफेसर हैं।

अपनी बहन शूर्पनखा के अपमान का बदला लेने के लिए रावण ने जो योजना बनाई, उसमें वन में श्रीराम-लक्ष्मण के साथ निवासित सीता का छल से हरण करना ही अहम था। मारीच को स्वर्ण-हिरण का रूप धरकर पहले तो श्रीराम को उसके पीछे कुटिया से निकालकर वन में जाने को प्रेरित किया। फिर छल से लक्ष्मण को भी वन में जाने को विवश कर दिया। लक्ष्मण ने एक रेखा खींचकर व्यवस्था कर दी थी ताकि सीता मैया की सुरक्षा पर कोई संकट न आए। लेकिन कौन जानता था कि रावण छलिया है। बहुरूपिया है। डीप फ़ेक का उस्ताद है। वह साधु का वेश धरकर कुटिया पर आया। सीता नकली साधु वेश के पीछे छिपे रावण को पहचान न पायीं और लक्ष्मण-रेखा से पांव बाहर निकालते ही रावण उन्हें छल से हर ले गया। भारतीय जनमानस में रचे-बसे प्रभु श्रीराम-सीता के जीवन से जुड़े इस किस्से में रावण के छलिया वेश का प्रसंग इतना अहम है कि यदि आज इसे बतौर डीपफ़ेक की शुरुआती पौराणिक घटना दर्ज किया जाए, तो शायद किसी को आपत्ति नहीं होगी।

Advertisement


पौराणिक आख्यानों में डीपफ़ेक का उल्लेख एक तकनीकी प्रबंध के रूप में नहीं मिलता। किस्से-कहानियों में भी किसी दूसरे का रूपाकार धारण कर कोई छल या माया रचने वाली असंख्य घटनाओं का वर्णन मिलता है। लेकिन इनमें दूसरे का चेहरा या रूपाकार अपनाने को या तो बहुरूपिया कला से जोड़ा जाता था या फिर माया की सिद्धि से, जिसमें व्यक्ति किसी दूसरे इंसान का ही नहीं, बल्कि किसी जीव-जंतु का रूप भी धर सकता था। इधर ऐसा ही एक छल बॉलीवुड की कुछ चर्चित अभिनेत्रियों के ऐसे वीडियोज़ की शक्ल में सामने आया है, जिनमें किसी अन्य स्त्री के शरीर पर इन अभिनेत्रियों का चेहरा इतनी सफाई से चस्पां कर दिया गया कि मालूम नहीं होता कि उन वीडियो में भदेस या अश्लील किस्म की भाव-भंगिमाएं दिखाती महिला असल में कोई और है। इस किस्से की शुरुआत एक्ट्रेस रश्मिका मंदाना से हुई। एक माह के अंदर ऐसे डीपफ़ेक वीडियो अभिनेत्री आलिया भट्ट और काजोल के भी सोशल मीडिया पर वायरल हो गए। मामला सिनेमाई हस्तियों तक सीमित नहीं रहा, बल्कि प्रधानमंत्री नरेंद्र मोदी का भी एक वीडियो वायरल हुआ, जिसमें वे गरबा करते नजर आ रहे हैं। पूर्व अमेरिकी राष्ट्रपति बराक ओबामा और फेसबुक (अब मेटा) के संस्थापकों में से एक मार्क जुकरबर्ग तक इस गोरखधंधे की चपेट में आ चुके हैं। अंदरूनी पड़ताल नहीं की जाए, तो ये वीडियो असली लगते थे।
एआई का मसालेदार छौंक
रश्मिका मंदाना के हालिया वायरल डीपफ़ेक वीडियो की असलियत की पड़ताल के दौरान यदि हमारे सामने किसी अन्य लड़की का असली वीडियो तुलना के लिए नहीं रखा जाए तो शायद ही कोई यकीन करे कि ये हरकतें रश्मिका ने नहीं, किसी और ने की हैं। दोनों वीडियो साथ में चलाने पर पता चलता है कि अनाम लड़की के वीडियो में रश्मिका का चेहरा बेहद सटीकता से चिपकाया गया हैै। ऑडियो भी डीपफ़ेक बन सकते हैं। दरअसल आर्टिफिशियल इंटेलीजेंस (एआई) ने किसी भी व्यक्ति की फर्जी (डीपफ़ेक) इमेज़ या वीडियो बनाना बायें हाथ का खेल कर दिया है। सिद्धहस्त लोग किसी भी फोटो, ऑडियो या वीडियो को डीपफ़ेक में किसी और शख्स की फोटो-वीडियो आदि में बदल सकते हैं। कंप्यूटर या स्मार्टफोन पर ऐसी तस्वीरें और वीडियो गढ़े जा सकते हैं, जहां असली असली नहीं रहता, उस पर नकलीपन हावी हो जाता है। डीपफ़ेक का आरंभ छह साल पूर्व 2017 से मान सकते हैं, जब माइक्रोब्लॉगिंग साइट रेडिट के एक उपयोगकर्ता ने अश्लील वीडियो में चेहरा बदलने को इस तकनीक का उपयोग किया। हालांकि रेडिट ने इस तकनीक को ‘डीपफ़ेक पॉर्न’ की श्रेणी में डाल ऐसी गतिविधि को मंच पर प्रतिबंधित कर दिया था।
तकनीकी प्रक्रिया
एआई के आगमन के बाद किसी वीडियो या ऑडियो में दूसरों के चेहरे व आवाज़ों को बदलना थोड़ा आसान हो गया, लेकिन आम तौर पर यह पेचीदा तकनीक मानी जाती रही है। इस हेतु व्यक्ति को कंप्यूटर से संबंधित मशीन लर्निंग का पूरा ज्ञान होना चाहिए।
इस्तेमाल कहां-कहां
एक आंकड़ा बताता है कि वर्ष 2019 में मौजूद डीपफ़ेक वीडियो में से 96 फीसदी अश्लील सामग्रियों वाले थे। डीपट्रेस की रिपोर्ट के मुताबिक, कुल 14,678 डीपफे़क वीडियो ऑनलाइन मौजूद थे। यह भी कि डीपफेक़ वीडियो के आकलन में पता चला कि डीपफ़ेक पोर्नोग्राफी का इस्तेमाल महिलाओं की छवि को धूमिल करने के लिए किया गया था। साइबर अपराधियों ने ब्लैकमेलिंग या फिरौती वसूलने के लिए भी डीपफ़ेक का इस्तेमाल किया है। शेष चार फीसदी डीपफेक़ वीडियो विशुद्ध मनोरंजन, पुरानी यादों को ताजा करने अथवा राजनीतिक उद्देश्यों के लिए खुद को अव्वल और दूसरे को नीचा दिखाने को बनाए गए थे।
कानूनी स्थिति और नीतिगत उपाय
केंद्रीय सूचना प्रौद्योगिकी मंत्री अश्विनी वैष्णव ने आश्वस्त किया कि सरकार जल्द ही सोशल मीडिया कंपनियों से डीपफ़ेक संबंधी मामलों पर चर्चा करेगी। यदि इन कंपनियों (मंचों) ने इस प्रचलन को रोकने के उपाय नहीं किए तो उन्हें आईटी एक्ट के सेफ़ हार्बर के तहत इम्यूनिटी या सरंक्षण नहीं मिलेगा। यहां इम्युनिटी का अभिप्राय है कि आईटीएक्ट की धारा- 79 के एक अपवाद के तहत कंपनियों को यह सरंक्षण प्राप्त था कि यदि किसी प्लेटफॉर्म पर तीसरी पार्टी ने कोई आपत्तिजनक सामग्री पोस्ट की है, लेकिन उस प्लेटफॉर्म ने उस सामग्री को सर्कुलेट नहीं किया है तो प्लेटफॉर्म की जिम्मेदारी नहीं मानी जाएगी। अब इस नीति में बदलाव हो गया है। हालांकि भारत के आईटी एक्ट में पहले से ऐसे मामलों में सजा के प्रावधान रहे हैं।
पहचान कैसे करें
यूं एआई की मदद से तैयार डीपफ़ेक सामग्री की पहचान करना अब काफी मुश्किल हो गया है। अब ऐसी सामग्री तभी पकड़ में आ पाती है, जब हमारे सामने उससे संबंधित असली फोटो, वीडियो या ऑडियो मौजूद हो। फिर भी सामान्य सावधानी यह बरती जा सकती है कि यदि किसी वीडियो में व्यक्ति बहुत देर से पलकें नहीं झपका रहा है, तो माना जा सकता है कि वह वीडियो नकली यानी डीपफ़ेक है। बोलते समय होंठों के संचालन में या फिर बातचीत करने में कोई तालमेल नहीं होने से इसका अंदाजा लगाया जा सकता है। हेयर स्टाइल और दांतों की बनावट से भी अनुमान लगाया जा सकता है, लेकिन जल्दबाजी में लोग सामने आये ऑडियो या वीडियो को सच मान लेते हैं।

Advertisement
Advertisement
Advertisement
×