For the best experience, open
https://m.dainiktribuneonline.com
on your mobile browser.

डीपफेक का खतरा

08:16 AM Nov 25, 2023 IST
डीपफेक का खतरा
Advertisement

हाल के दिनों में सूचना माध्यमों में डीपफेक शब्द सुर्खियों में है। डीपफेक तकनीक के शिकार होने के मामले लगातार सामने आ रहे हैं। इस संकट को लेकर पिछले दिनों प्रधानमंत्री भी चिंता जता चुके हैं। अब सरकार भी सोशल मीडिया कंपनियों को चेता चुकी है कि वे इसके लिये जवाबदेह होंगे और उन्हें सेफ हार्बर नहीं मिलेगा। सरकार इस मामले में कमर कस चुकी है और पंद्रह दिन में नया कानून लाने की बात कर रही है, जिसमें पुराने नियमों में बदलाव करके नये सख्त नियम जोड़ने की बात सामने आई है। उल्लेखनीय है कि इस तकनीक के गलत इस्तेमाल से बने सेलिब्रिटीज के भी कई डीपफेक वीडियो वायरल हुए हैं। इसमें बॉलीवुड अभिनेत्रा रश्मिका मंदाना, काजोल व कटरीना आदि के नाम सामने आए हैं। दरअसल, ऐसा नहीं है कि डीपफेक के मामले केवल भारत तक ही सीमित हों। विगत में पूर्व अमेरिकी राष्ट्रपति बराक ओबामा व मेटा के मुखिया मार्क जुकरबर्ग भी इसकी चपेट में आ चुके हैं। दरअसल, डीपफेक बनाने में कृत्रिम बुद्धिमत्ता के जरिये किसी की फर्जी तस्वीर या वीडियो बनाया जाता है। इसमें कृत्रिम बुद्धिमता के एक प्रकार डीप लर्निंग का प्रयोग किया जाता है, जिसके चलते इसे डीपफेक कहा जाता है। दुनिया में अश्लील सामग्री तैयार करने में बड़े पैमाने पर इस तकनीक का प्रयोग किया जाता रहा है। इस मामले में तकनीकी विस्तार से समाज पर खासा प्रतिकूल असर पड़ रहा है। हर साल हजारों की संख्या में डीपफेक वीडियो इंटरनेट पर प्रसारित होते रहते हैं। दरअसल, इस तकनीक का प्रयोग महिलाओं की छवि को नुकसान पहुंचाने के लिये किया जाता रहा है, जिसके लिये फिल्म व संगीत से जुड़ी हस्तियों को ज्यादा निशाना बनाया जाता है। कुछ साल पहले भारत में फर्जी वीडियो बनाकर संप्रदाय विशेष के लोगों को टारगेट किया गया था। ऐसा भी नहीं है कि सिर्फ महिलाएं ही इस फर्जी तकनीक का शिकार होती हैं। पुरुष भी इस भ्रमजाल का शिकार बनते हैं। लेकिन सामान्यत: पुरुष ऐसे मामलों को गंभीरता से नहीं लेते।
बहरहाल, यह रोग समाज को घुन की तरह खोखला कर रहा है। अब तक ऐसी खबरें आती थी कि विशिष्ट लोगों के चित्रों से छेड़छाड़ की गई है, लेकिन उसकी पहचान हो जाती थी कि खेल नकली है। लेकिन कृत्रिम बुद्धिमत्ता के चलते डीपफेक इतनी चतुराई से तैयार किया जाता है कि सही-गलत का भेद करना मुश्किल हो जाता है, जिसका उपयोग किसी की प्रतिष्ठा को ठेस पहुंचाने के लिये किया जाता है। चिंता की बात यह है कि विकसित तकनीक के जरिये वीडियो व ऑडियो के सही-गलत का भेद करना मुश्किल हो जाता है। ऐसे में यदि इसका दुरुपयोग धार्मिक व सांप्रदायिक मामलों में किया जाता है तो समाज में अराजकता की स्थिति पैदा हो सकती है। दरअसल, संकट यह भी है कि इस तकनीक के जरिये ऑडियो का भी डीपफेक तैयार किया जाता है। बड़ी हस्तियों की आवाज बदलने के लिये वायस क्लोन्स का इस्तेमाल किया जाता है। दरअसल, आज शातिर लोग बिना कंप्यूटर के मोबाइल से भी डीपफेक वी़डियो बनाने लगे हैं, जो साइबर अपराधियों का नया हथियार बन गया है, जिसके जरिये इसका इस्तेमाल भयादोहन व फिरौती वसूलने तक के लिये किया जा रहा है। किसी भी सामाजिक व्यक्ति की छवि खराब करने के लिये डीपफेक वीडियो को सोशल मीडिया पर डालकर वे अपने खतरनाक मंसूबों को अंजाम देते हैं। खासकर वे समाज के प्रतिष्ठित व्यक्तियों व राजनेताओं को निशाने पर लेते हैं। आशंका व्यक्त की जा रही है कि भविष्य में चुनाव के दौरान मतदाताओं को भ्रमित करने के प्रयास किये जा सकते हैं। राजनेताओं के डीपफेक वीडियो प्रसारित करने से राजनीतिक दल की संभावनाओं को प्रभावित करने की आशंका भी पैदा हो सकती है। यही वजह है कि पिछले दिनों प्रधानमंत्री ने इसे देश के सामने मौजूद बड़े खतरों के रूप में दर्शाया और समाज में अराजकता फैलने की आशंका व्यक्त की। उम्मीद की जानी चाहिए कि नये कानून बनने और इस मामले में कड़ी सजा के प्रावधान से इस चुनौती का मुकाबला किया जा सकेगा।

Advertisement
Advertisement
Advertisement
Advertisement
×