छलिया और छलने की दुनिया डीपफ़ेक
डीपफेक तकनीक के गलत इस्तेमाल के चलते ऑनलाइन दुनिया में लोगों की सुरक्षा चिंताएं और बढ़ गयी हैं। हाल ही में कुछ अभिनेत्रियों के हूबहू असली जैसे लगने वाले नकली वीडियो सोशल मीडिया पर वायरल हुए। किसी ओर के मूल वीडियो में चेहरा इन एक्ट्रेस का चस्पां था। दरअसल, आर्टिफिशियल इंटेलीजेंस से किसी व्यक्ति की फर्जी (डीपफ़ेक) इमेज़ या वीडियो बनाये जा सकते हैं। कंप्यूटर या फोन पर लोग किसी भी फोटो, ऑडियो या वीडियो को किसी और शख्स की फोटो-वीडियो आदि में बदल सकते हैं। हालांकि डीपफेक वीडियो की थोड़ी-बहुत पहचान पात्र के पलक न झपकने आदि से हो सकती है।
डॉ. संजय वर्मा
लेखक एसोसिएट प्रोफेसर हैं।
अपनी बहन शूर्पनखा के अपमान का बदला लेने के लिए रावण ने जो योजना बनाई, उसमें वन में श्रीराम-लक्ष्मण के साथ निवासित सीता का छल से हरण करना ही अहम था। मारीच को स्वर्ण-हिरण का रूप धरकर पहले तो श्रीराम को उसके पीछे कुटिया से निकालकर वन में जाने को प्रेरित किया। फिर छल से लक्ष्मण को भी वन में जाने को विवश कर दिया। लक्ष्मण ने एक रेखा खींचकर व्यवस्था कर दी थी ताकि सीता मैया की सुरक्षा पर कोई संकट न आए। लेकिन कौन जानता था कि रावण छलिया है। बहुरूपिया है। डीप फ़ेक का उस्ताद है। वह साधु का वेश धरकर कुटिया पर आया। सीता नकली साधु वेश के पीछे छिपे रावण को पहचान न पायीं और लक्ष्मण-रेखा से पांव बाहर निकालते ही रावण उन्हें छल से हर ले गया। भारतीय जनमानस में रचे-बसे प्रभु श्रीराम-सीता के जीवन से जुड़े इस किस्से में रावण के छलिया वेश का प्रसंग इतना अहम है कि यदि आज इसे बतौर डीपफ़ेक की शुरुआती पौराणिक घटना दर्ज किया जाए, तो शायद किसी को आपत्ति नहीं होगी।
पौराणिक आख्यानों में डीपफ़ेक का उल्लेख एक तकनीकी प्रबंध के रूप में नहीं मिलता। किस्से-कहानियों में भी किसी दूसरे का रूपाकार धारण कर कोई छल या माया रचने वाली असंख्य घटनाओं का वर्णन मिलता है। लेकिन इनमें दूसरे का चेहरा या रूपाकार अपनाने को या तो बहुरूपिया कला से जोड़ा जाता था या फिर माया की सिद्धि से, जिसमें व्यक्ति किसी दूसरे इंसान का ही नहीं, बल्कि किसी जीव-जंतु का रूप भी धर सकता था। इधर ऐसा ही एक छल बॉलीवुड की कुछ चर्चित अभिनेत्रियों के ऐसे वीडियोज़ की शक्ल में सामने आया है, जिनमें किसी अन्य स्त्री के शरीर पर इन अभिनेत्रियों का चेहरा इतनी सफाई से चस्पां कर दिया गया कि मालूम नहीं होता कि उन वीडियो में भदेस या अश्लील किस्म की भाव-भंगिमाएं दिखाती महिला असल में कोई और है। इस किस्से की शुरुआत एक्ट्रेस रश्मिका मंदाना से हुई। एक माह के अंदर ऐसे डीपफ़ेक वीडियो अभिनेत्री आलिया भट्ट और काजोल के भी सोशल मीडिया पर वायरल हो गए। मामला सिनेमाई हस्तियों तक सीमित नहीं रहा, बल्कि प्रधानमंत्री नरेंद्र मोदी का भी एक वीडियो वायरल हुआ, जिसमें वे गरबा करते नजर आ रहे हैं। पूर्व अमेरिकी राष्ट्रपति बराक ओबामा और फेसबुक (अब मेटा) के संस्थापकों में से एक मार्क जुकरबर्ग तक इस गोरखधंधे की चपेट में आ चुके हैं। अंदरूनी पड़ताल नहीं की जाए, तो ये वीडियो असली लगते थे।
एआई का मसालेदार छौंक
रश्मिका मंदाना के हालिया वायरल डीपफ़ेक वीडियो की असलियत की पड़ताल के दौरान यदि हमारे सामने किसी अन्य लड़की का असली वीडियो तुलना के लिए नहीं रखा जाए तो शायद ही कोई यकीन करे कि ये हरकतें रश्मिका ने नहीं, किसी और ने की हैं। दोनों वीडियो साथ में चलाने पर पता चलता है कि अनाम लड़की के वीडियो में रश्मिका का चेहरा बेहद सटीकता से चिपकाया गया हैै। ऑडियो भी डीपफ़ेक बन सकते हैं। दरअसल आर्टिफिशियल इंटेलीजेंस (एआई) ने किसी भी व्यक्ति की फर्जी (डीपफ़ेक) इमेज़ या वीडियो बनाना बायें हाथ का खेल कर दिया है। सिद्धहस्त लोग किसी भी फोटो, ऑडियो या वीडियो को डीपफ़ेक में किसी और शख्स की फोटो-वीडियो आदि में बदल सकते हैं। कंप्यूटर या स्मार्टफोन पर ऐसी तस्वीरें और वीडियो गढ़े जा सकते हैं, जहां असली असली नहीं रहता, उस पर नकलीपन हावी हो जाता है। डीपफ़ेक का आरंभ छह साल पूर्व 2017 से मान सकते हैं, जब माइक्रोब्लॉगिंग साइट रेडिट के एक उपयोगकर्ता ने अश्लील वीडियो में चेहरा बदलने को इस तकनीक का उपयोग किया। हालांकि रेडिट ने इस तकनीक को ‘डीपफ़ेक पॉर्न’ की श्रेणी में डाल ऐसी गतिविधि को मंच पर प्रतिबंधित कर दिया था।
तकनीकी प्रक्रिया
एआई के आगमन के बाद किसी वीडियो या ऑडियो में दूसरों के चेहरे व आवाज़ों को बदलना थोड़ा आसान हो गया, लेकिन आम तौर पर यह पेचीदा तकनीक मानी जाती रही है। इस हेतु व्यक्ति को कंप्यूटर से संबंधित मशीन लर्निंग का पूरा ज्ञान होना चाहिए।
इस्तेमाल कहां-कहां
एक आंकड़ा बताता है कि वर्ष 2019 में मौजूद डीपफ़ेक वीडियो में से 96 फीसदी अश्लील सामग्रियों वाले थे। डीपट्रेस की रिपोर्ट के मुताबिक, कुल 14,678 डीपफे़क वीडियो ऑनलाइन मौजूद थे। यह भी कि डीपफेक़ वीडियो के आकलन में पता चला कि डीपफ़ेक पोर्नोग्राफी का इस्तेमाल महिलाओं की छवि को धूमिल करने के लिए किया गया था। साइबर अपराधियों ने ब्लैकमेलिंग या फिरौती वसूलने के लिए भी डीपफ़ेक का इस्तेमाल किया है। शेष चार फीसदी डीपफेक़ वीडियो विशुद्ध मनोरंजन, पुरानी यादों को ताजा करने अथवा राजनीतिक उद्देश्यों के लिए खुद को अव्वल और दूसरे को नीचा दिखाने को बनाए गए थे।
कानूनी स्थिति और नीतिगत उपाय
केंद्रीय सूचना प्रौद्योगिकी मंत्री अश्विनी वैष्णव ने आश्वस्त किया कि सरकार जल्द ही सोशल मीडिया कंपनियों से डीपफ़ेक संबंधी मामलों पर चर्चा करेगी। यदि इन कंपनियों (मंचों) ने इस प्रचलन को रोकने के उपाय नहीं किए तो उन्हें आईटी एक्ट के सेफ़ हार्बर के तहत इम्यूनिटी या सरंक्षण नहीं मिलेगा। यहां इम्युनिटी का अभिप्राय है कि आईटीएक्ट की धारा- 79 के एक अपवाद के तहत कंपनियों को यह सरंक्षण प्राप्त था कि यदि किसी प्लेटफॉर्म पर तीसरी पार्टी ने कोई आपत्तिजनक सामग्री पोस्ट की है, लेकिन उस प्लेटफॉर्म ने उस सामग्री को सर्कुलेट नहीं किया है तो प्लेटफॉर्म की जिम्मेदारी नहीं मानी जाएगी। अब इस नीति में बदलाव हो गया है। हालांकि भारत के आईटी एक्ट में पहले से ऐसे मामलों में सजा के प्रावधान रहे हैं।
पहचान कैसे करें
यूं एआई की मदद से तैयार डीपफ़ेक सामग्री की पहचान करना अब काफी मुश्किल हो गया है। अब ऐसी सामग्री तभी पकड़ में आ पाती है, जब हमारे सामने उससे संबंधित असली फोटो, वीडियो या ऑडियो मौजूद हो। फिर भी सामान्य सावधानी यह बरती जा सकती है कि यदि किसी वीडियो में व्यक्ति बहुत देर से पलकें नहीं झपका रहा है, तो माना जा सकता है कि वह वीडियो नकली यानी डीपफ़ेक है। बोलते समय होंठों के संचालन में या फिर बातचीत करने में कोई तालमेल नहीं होने से इसका अंदाजा लगाया जा सकता है। हेयर स्टाइल और दांतों की बनावट से भी अनुमान लगाया जा सकता है, लेकिन जल्दबाजी में लोग सामने आये ऑडियो या वीडियो को सच मान लेते हैं।