Hero Image

अभी आम लोगों क्यों नहीं जानते Deepfake के बारे में ,बस इतने लोग जान पाते हैं हकीकत

टेक न्यूज़ डेस्क,McAfee के ऑनलाइन सुरक्षा और साइबर सुरक्षा विशेषज्ञों ने डीपफेक के संबंध में एक सर्वेक्षण किया। भारतीयों के बीच कराए गए सर्वे में कई चौंकाने वाले नतीजे सामने आए हैं। जनवरी और फरवरी 2024 में, McAfee ने भविष्य में कृत्रिम बुद्धिमत्ता (AI) और प्रौद्योगिकी के प्रभाव की जांच के लिए कई देशों में एक शोध अध्ययन किया।

एमएसआई-एसीआई द्वारा किए गए अध्ययन में अमेरिका, ब्रिटेन, फ्रांस, जर्मनी, ऑस्ट्रेलिया, भारत और जापान सहित विभिन्न देशों के 7,000 लोग शामिल थेचार में से एक भारतीय (22 प्रतिशत) ने स्वीकार किया कि उसे एक राजनीतिक नकली चीज़ का सामना करना पड़ा, जिसे पहली बार देखने पर उन्हें लगा कि यह असली है। डीपफेक का बढ़ता प्रदर्शन चिंता पैदा करता है, खासकर भारत में चल रहे चुनावों और खेल आयोजनों के बीच जहां एआई तकनीक के कारण असली और नकली वीडियो और आवाजों के बीच अंतर करना बहुत चुनौतीपूर्ण है।

सर्वे से आए कुछ चौंकाने वाले नतीजे

31 प्रतिशत लोगों ने आम चुनावों पर डीपफेक के प्रभाव को एआई-आधारित प्रौद्योगिकी से संबंधित सबसे चिंताजनक मुद्दों में से एक बताया। सचिन तेंदुलकर, विराट कोहली, आमिर खान और रणवीर सिंह जैसी मशहूर हस्तियों के डीपफेक हमारे संज्ञान में आने के साथ गलत सूचना और दुष्प्रचार तत्काल चिंता के रूप में उभरे हैं।80 प्रतिशत लोगों ने कहा कि वे एक साल पहले की तुलना में डीपफेक के बारे में अधिक चिंतित हैं, जो इस तकनीक से जुड़े जोखिमों के बारे में बढ़ती जागरूकता को दर्शाता है। 64 फीसदी लोगों का मानना है कि एआई ने ऑनलाइन घोटालों की पहचान करना मुश्किल बना दिया है.

डीपफेक घोटाला
घोटालों और हेरफेर के लिए AI-जनित ऑडियो का उपयोग करने वाले साइबर अपराधियों के बढ़ते खतरे को संबोधित करने के लिए, McAfee ने प्रोजेक्ट मॉकिंगबर्ड, एक AI-आधारित डीपफेक ऑडियो डिटेक्शन तकनीक विकसित की है।McAfee Labs द्वारा बनाई गई यह नई तकनीक उपयोगकर्ताओं को वीडियो में AI-जनरेटेड ऑडियो की पहचान करने में मदद करती है। यह डिजिटल दुनिया की बेहतर समझ और सामग्री में संभावित हेरफेर प्रदान करता है।भावनात्मक रूप से प्रेरित सामग्री से सावधान रहें, खासकर अगर यह क्रोध या उदासी जैसी भावनाओं को भड़काती हो। डीपफेक का उद्देश्य आपकी सोच और कार्यों में हेरफेर करना है।केवल 30 प्रतिशत लोग ही एआई द्वारा उत्पन्न वास्तविक और नकली सामग्री के बीच अंतर करने की अपनी क्षमता में आत्मविश्वास महसूस करते हैं। यह जागरूकता और तैयारियों की भारी कमी को दर्शाता है।पिछले 12 महीनों में 38 फीसदी लोगों को डीपफेक घोटालों का सामना करना पड़ा, जबकि 18 फीसदी लोग ऐसे घोटालों का शिकार बने. इन घोटालों में अक्सर व्यक्तिगत जानकारी या धन प्राप्त करने के लिए मशहूर हस्तियों या अन्य लोगों के डीपफेक का उपयोग करना शामिल होता है।

इस तरह के डीपफेक से सुरक्षित रहें
इस डिजिटल युग में अपनी निजी जानकारी को साझा करने से पहले उसे सत्यापित करना जरूरी है। विशेष रूप से डीपफेक और एआई-जनित सामग्री के बढ़ने के साथ, ऐसा करना और भी आवश्यक हो गया है। इंटरनेट पर फोटो-वीडियो, रोबोटिक आवाजें या भावनात्मक सामग्री देखते समय सावधान रहें, क्योंकि ये अक्सर संकेत दे सकते हैं कि ये नकली हैं।

READ ON APP