मुख्य समाचारदेशविदेशखेलपेरिस ओलंपिकबिज़नेसचंडीगढ़हिमाचलपंजाबहरियाणाआस्थासाहित्यलाइफस्टाइलसंपादकीयविडियोगैलरीटिप्पणीआपकी रायफीचर
Advertisement

डीपफेक का खतरा

08:16 AM Nov 25, 2023 IST

हाल के दिनों में सूचना माध्यमों में डीपफेक शब्द सुर्खियों में है। डीपफेक तकनीक के शिकार होने के मामले लगातार सामने आ रहे हैं। इस संकट को लेकर पिछले दिनों प्रधानमंत्री भी चिंता जता चुके हैं। अब सरकार भी सोशल मीडिया कंपनियों को चेता चुकी है कि वे इसके लिये जवाबदेह होंगे और उन्हें सेफ हार्बर नहीं मिलेगा। सरकार इस मामले में कमर कस चुकी है और पंद्रह दिन में नया कानून लाने की बात कर रही है, जिसमें पुराने नियमों में बदलाव करके नये सख्त नियम जोड़ने की बात सामने आई है। उल्लेखनीय है कि इस तकनीक के गलत इस्तेमाल से बने सेलिब्रिटीज के भी कई डीपफेक वीडियो वायरल हुए हैं। इसमें बॉलीवुड अभिनेत्रा रश्मिका मंदाना, काजोल व कटरीना आदि के नाम सामने आए हैं। दरअसल, ऐसा नहीं है कि डीपफेक के मामले केवल भारत तक ही सीमित हों। विगत में पूर्व अमेरिकी राष्ट्रपति बराक ओबामा व मेटा के मुखिया मार्क जुकरबर्ग भी इसकी चपेट में आ चुके हैं। दरअसल, डीपफेक बनाने में कृत्रिम बुद्धिमत्ता के जरिये किसी की फर्जी तस्वीर या वीडियो बनाया जाता है। इसमें कृत्रिम बुद्धिमता के एक प्रकार डीप लर्निंग का प्रयोग किया जाता है, जिसके चलते इसे डीपफेक कहा जाता है। दुनिया में अश्लील सामग्री तैयार करने में बड़े पैमाने पर इस तकनीक का प्रयोग किया जाता रहा है। इस मामले में तकनीकी विस्तार से समाज पर खासा प्रतिकूल असर पड़ रहा है। हर साल हजारों की संख्या में डीपफेक वीडियो इंटरनेट पर प्रसारित होते रहते हैं। दरअसल, इस तकनीक का प्रयोग महिलाओं की छवि को नुकसान पहुंचाने के लिये किया जाता रहा है, जिसके लिये फिल्म व संगीत से जुड़ी हस्तियों को ज्यादा निशाना बनाया जाता है। कुछ साल पहले भारत में फर्जी वीडियो बनाकर संप्रदाय विशेष के लोगों को टारगेट किया गया था। ऐसा भी नहीं है कि सिर्फ महिलाएं ही इस फर्जी तकनीक का शिकार होती हैं। पुरुष भी इस भ्रमजाल का शिकार बनते हैं। लेकिन सामान्यत: पुरुष ऐसे मामलों को गंभीरता से नहीं लेते।
बहरहाल, यह रोग समाज को घुन की तरह खोखला कर रहा है। अब तक ऐसी खबरें आती थी कि विशिष्ट लोगों के चित्रों से छेड़छाड़ की गई है, लेकिन उसकी पहचान हो जाती थी कि खेल नकली है। लेकिन कृत्रिम बुद्धिमत्ता के चलते डीपफेक इतनी चतुराई से तैयार किया जाता है कि सही-गलत का भेद करना मुश्किल हो जाता है, जिसका उपयोग किसी की प्रतिष्ठा को ठेस पहुंचाने के लिये किया जाता है। चिंता की बात यह है कि विकसित तकनीक के जरिये वीडियो व ऑडियो के सही-गलत का भेद करना मुश्किल हो जाता है। ऐसे में यदि इसका दुरुपयोग धार्मिक व सांप्रदायिक मामलों में किया जाता है तो समाज में अराजकता की स्थिति पैदा हो सकती है। दरअसल, संकट यह भी है कि इस तकनीक के जरिये ऑडियो का भी डीपफेक तैयार किया जाता है। बड़ी हस्तियों की आवाज बदलने के लिये वायस क्लोन्स का इस्तेमाल किया जाता है। दरअसल, आज शातिर लोग बिना कंप्यूटर के मोबाइल से भी डीपफेक वी़डियो बनाने लगे हैं, जो साइबर अपराधियों का नया हथियार बन गया है, जिसके जरिये इसका इस्तेमाल भयादोहन व फिरौती वसूलने तक के लिये किया जा रहा है। किसी भी सामाजिक व्यक्ति की छवि खराब करने के लिये डीपफेक वीडियो को सोशल मीडिया पर डालकर वे अपने खतरनाक मंसूबों को अंजाम देते हैं। खासकर वे समाज के प्रतिष्ठित व्यक्तियों व राजनेताओं को निशाने पर लेते हैं। आशंका व्यक्त की जा रही है कि भविष्य में चुनाव के दौरान मतदाताओं को भ्रमित करने के प्रयास किये जा सकते हैं। राजनेताओं के डीपफेक वीडियो प्रसारित करने से राजनीतिक दल की संभावनाओं को प्रभावित करने की आशंका भी पैदा हो सकती है। यही वजह है कि पिछले दिनों प्रधानमंत्री ने इसे देश के सामने मौजूद बड़े खतरों के रूप में दर्शाया और समाज में अराजकता फैलने की आशंका व्यक्त की। उम्मीद की जानी चाहिए कि नये कानून बनने और इस मामले में कड़ी सजा के प्रावधान से इस चुनौती का मुकाबला किया जा सकेगा।

Advertisement

Advertisement