चुनावी माहौल में खतरा बने एआई और डीपफेक वीडियो, वॉयस क्लोनिंग के खतरों से चुनाव आयोग ने किया आगाह

ADVERTISEMENT

चुनावी माहौल में खतरा बने एआई और डीपफेक वीडियो, वॉयस क्लोनिंग के खतरों से चुनाव आयोग ने किया आगाह
जांच जारी
social share
google news

Delhi News: आम चुनाव से पहले जहां राजनीतिक दल मतदाताओं को लुभाने के लिए हरसंभव प्रयास कर रहे हैं, वहीं साइबर सुरक्षा विशेषज्ञों ने मतदाताओं को प्रभावित करने के लिए कृत्रिम बुद्धिमत्ता (एआई) और डीपफेक प्रौद्योगिकी समेत अन्य प्रौद्योगिकियों के संभावित दुरुपयोग को लेकर चिंता जताई है। भारत में लोकसभा चुनाव 19 अप्रैल से एक जून के बीच सात चरणों में होगा। निर्वाचन आयोग ने फर्जी खबरों और गलत सूचनाओं की पहचान एवं त्वरित प्रतिक्रिया के लिए पहले ही मानक संचालन प्रक्रिया जारी कर दी है।

डीपफेक वीडियो और वॉयस क्लोनिंग का खतरा

दिल्ली पुलिस के साइबर अपराध प्रकोष्ठ के एक वरिष्ठ अधिकारी ने कहा, ‘‘डीपफेक वीडियो और वॉयस क्लोनिंग दो उपकरण हैं जिनका चुनाव अभियान के दौरान बड़े पैमाने पर उपयोग किया जा सकता है।’’ उन्होंने कहा कि पुलिस के सामने एक बड़ी चुनौती ऐसी सामग्री का समय पर पता लगाना और त्वरित कार्रवाई करना है। ऐसी कोई प्रौद्योगिकी उपलब्ध नहीं है जो एआई का उपयोग करके तैयार की गई मूल और नकली वीडियो सामग्री के बीच स्वचालित रूप से अंतर का पता लगा सके। अधिकारी ने कहा, 'जब तक इस पर ध्यान जाता है, तब तक नुकसान हो चुका होता है क्योंकि यह सोशल मीडिया पर फैल जाता है।' 

कई नेताओं के ऑडियो वीडियो सामने आए

हाल में अमेरिका और बांग्लादेश सहित कई देशों में राजनीतिक नेताओं के डीपफेक वीडियो और ऑडियो के मामले सामने आए हैं जिनसे बड़े पैमाने पर भ्रम उत्पन्न हुआ। पूर्व आईपीएस अधिकारी एवं साइबर सुरक्षा विशेषज्ञ त्रिवेणी सिंह ने कहा कि एआई-जनित गलत सूचना का व्यापक प्रसार चुनावी प्रक्रिया और लोकतांत्रिक संस्थानों में जनता के विश्वास को कम कर सकता है। सिंह ने कहा कि सरकार को एआई उपकरणों के मूल्यांकन और अनुमोदन के लिए पारदर्शी एवं निष्पक्ष दिशानिर्देश विकसित करने के वास्ते साइबर सुरक्षा विशेषज्ञों, प्रौद्योगिकी कंपनियों और नागरिक संस्थाओं सहित विभिन्न हितधारकों के साथ मिलकर काम करना चाहिए।

ADVERTISEMENT

(PTI)

    follow on google news
    follow on whatsapp

    ADVERTISEMENT

    यह भी पढ़ें...

    ऐप खोलें ➜