For the best experience, open
https://m.dainiktribuneonline.com
on your mobile browser.
Advertisement

आभासी दुनिया में आत्मसंयम से सुरक्षा

10:03 AM Dec 06, 2023 IST
आभासी दुनिया में आत्मसंयम से सुरक्षा
Advertisement

डॉ. मोनिका शर्मा

Advertisement

तकनीकी सुविधाएं अपने साथ कई खतरे भी लाती हैं। नकारात्मक मानसिकता के लोग इन सुविधाओं को और जोखिमपूर्ण बना देते हैं। ऐसे लोग तकनीकी सुविधाओं का दुरुपयोग कर दूसरे लोगों के लिए समस्याएं खड़ी करने से भी नहीं चूकते। हालांकि तकनीक के ऐसे गलत इस्तेमाल पर लगाम लगाने के लिए कानून, अत्याधुनिक तकनीकी टूल्स और नई प्रौद्योगिकी अपना काम करती है पर खुद की सतर्कता भी आवश्यक है।
इन दिनों चर्चित डीप फेक तकनीक के जुड़े खतरों का सामना करने के लिए आम यूजर्स में आत्मनियमन का भाव जरूरी है। इसके लिए तस्वीर हो या वीडियो, अपने जीवन का हर पहलू सोशल मीडिया में साझा करने से पहले सोचना जरूरी है। शेयर की जा रही सामग्री के बढ़ते दुरुपयोग पर लगाम लगाने में खुद यूजर्स की समझदारी भी मददगार बन सकती है। हर हाथ आए स्मार्ट गैजेट्स के इस दौर में हर किसी के लिए यह सोचना जरूरी हो गया है कि वर्चुअल दुनिया में क्या और कितना कंटेन्ट साझा किया जाये।
तकनीक के जोखिम
दरअसल, डीप फेक टेक्नीक के जरिये किसी फोटो में दूसरे का चेहरा लगा दिया जाता है। किसी वीडियो में दूसरी आवाज सेट कर दी जाती है। फेक चेहरा लगाने के बावजूद बिलकुल असली लगने वाली इस एडिटिंग को मशीन लर्निंग और आर्टिफ़िशियल इंटेलिजेंस (एआई) की मदद से अंजाम दिया जाता है। रीयल लगने वाले ऐसे फेक वीडियो और आडियो को विशेष साफ्टवेयर की मदद से तैयार करने का खेल किसी भी इंसान की छवि बिगाड़ सकता है। इसमें न केवल तस्वीर बिलकुल असली लगती है बल्कि वायस क्लोनिंग के माध्यम से आवाज भी हूबहू कॉपी की जा सकती है। इस तरह डीप फेक तकनीक के जरिये तैयार किए गए फेक कंटेन्ट का इस्तेमाल फाइनेंशियल और दूसरी कई तरह की धोखाधड़ी, सेलिब्रिटी के अश्लील वीडियो, पर्सनल या सोशल दुष्प्रचार, पहचान की चोरी जैसे गलत उद्देश्यों के लिये किए जाने के मामले सामने आए हैं। फोटो मॉर्फिंग कर एकदम रीयल लगने वाली अश्लील तस्वीरें बनाने से लेकर वीडियो में किसी और की आवाज़ कॉपी कर कुप्रचार करने तक अनगिनत खतरे हमारे सामने हैं।


कंटेन्ट शेयरिंग में समझदारी
किसी जमाने में पब्लिक प्लेटफॉर्म्स पर केवल चर्चित चेहरों के फोटो और वीडियो ही मौजूद होते थे। फिल्म, राजनीति या खेल की दुनिया के जाने-माने लोगों की आवाज या तस्वीरें ही वर्चुअल मंचों पर मिला करतीं थी। स्मार्ट गैजेट्स की बढ़ती दखल के मौजूदा दौर में स्थितियां बदल गई हैं। सोशल मीडिया के बहुत से प्लेटफॉर्म्स पर चर्चित चेहरों के ही नहीं, आम लोगों के भी ऑडियो, वीडियो और फ़ोटो मौजूद हैं। ऐसे में आम लोग भी तकनीक का दुरुपयोग करने वाले लोगों की विकृत मानसिकता के शिकार बन रहे हैं। आर्टिफ़िशियल इंटेलिजेंस तकनीक ने आम और खास हर इंसान के चिंताएं भी बढ़ा दी हैं। आए दिन एआई टेक्नीक के दुरुपयोग के मामले सामने आ रहे हैं। न केवल डीपफेक वीडियो बनाकर सोशल मीडिया पर वायरल किए जा रहे हैं बल्कि नेगेटिव न्यूज, ऑडियो-वीडियो और अश्लील तस्वीरें फैलाने का काम भी किया जा रहा है। 2019 एआई फर्म डीपट्रेस ने में इंटरनेट पर 15 हजार डीपफेक वीडियो का पता लगाया था। जिनमें 96 फीसदी पोर्नोग्राफी से जुड़े थे। समझना मुश्किल नहीं कि बीते चार वर्ष में तकनीकी एडवांसमेंट भी बढ़ा है और आम लोगों द्वारा सोशल मीडिया प्लेटफॉर्म्स पर साझा किया जा रहा कंटेन्ट भी। ऐसे में फेक कंटेन्ट तैयार करने के मामलों में भी इजाफा हुआ है। जरूरी है कि हर यूजर अपने व्यक्तिगत जीवन से जुड़ा कंटेन्ट शेयर करने में सतर्कता बरते।
व्यक्तिगत प्रतिष्ठा को खतरा
तकनीक का यह स्याह पहलू व्यक्तिगत प्रतिष्ठा को धूमिल करने वाला है। किसी क्षेत्र विशेष का चर्चित चेहरा हो या आम नागरिक। उनकी तस्वीरों और वीडियो से छेड़छाड़ कर अभद्र-अश्लील सामग्री तैयार करना मान और मनोबल को ठेस पहुंचाने वाली बात है। देश-विदेश में प्रतिष्ठित लोग डीपफेक वीडियो का शिकार हो चुके हैं। हूबहू फर्जी वीडियो और फोटो को बनाने का यह खेल आम लोगों के लिए भी खतरा बन गया है। नेगेटिव सोच के लोगों के लिए सोशल मीडिया शेयरिंग के चलते अब आम लोगों की तस्वीरें और वीडियो भी बहुत आसानी से उपलब्ध है। दुर्भावना के चलते किसी से बदला लेने या छवि बिगाड़ने के लिए इस तकनीक का गलत इस्तेमाल होने की गुंजाइश कम नहीं है। कानूनी और टेक्नीकल मोर्चे पर इस दुरुपयोग को लेकर सख्ती बरतने के रास्ते खोजे जा रहे हैं पर आम लोगों की अपनी समझदारी भी आवश्यक है। तकनीक का सधा इस्तेमाल ही यूजर्स की प्रतिष्ठा को ठेस पहुंचने से बचा सकता है। अपने जीवन से जुड़ी हर बात, हालात या तस्वीर-वीडियो को साझा करने से पहले सोचना अब बेहद आवश्यक हो चला है।

Advertisement

Advertisement
Advertisement