FAKE VIDEO CALLS प्राप्त कर रहे हैं जो स्कैमर AI का उपयोग
हाल ही में 5 करोड़ रुपये के वीडियो कॉल घोटाले से जुड़ी एक घटना सामने आई है। इस स्थिति में डीपफेक तकनीक का उपयोग कैसे किया जा रहा है, इसका वर्णन करें। हमें बताएं कि आप इसे कैसे रोकने की योजना बना रहे हैं।
हाल के महीनों में एआई तकनीक ने काफी लोकप्रियता हासिल की है। जहां एक तरफ इसे यूजर्स ने खूब सराहा है, वहीं दूसरी तरफ हैकर्स इसका गलत इस्तेमाल कर रहे हैं। हाल ही में एक ऐसी घटना सामने आई है, जिसमें जालसाज नकली वीडियो चैट के लिए खुद को लोगों के रूप में पेश करते हैं और पैसे की मांग करते हैं।
स्कैमर्स इसके लिए डीपफेक तकनीक का उपयोग करते हैं, किसी ऐसे व्यक्ति के रूप में प्रस्तुत करते हैं जिसे आप वीडियो कॉल करते हैं और पैसे की मांग करते हैं। यदि आप इसके जाल में फंस गए तो आप असहाय हो सकते हैं।
आजकल, अधिकांश लोग दुनिया भर में स्थित परिवार, दोस्तों या सहकर्मियों के साथ संवाद करने के लिए वीडियो कॉल चुनते हैं। एक वीडियो वार्तालाप के दौरान, आप व्यक्ति के चेहरे, आवाज और परिवेश के बारे में पूरी तरह से अवगत होते हैं, लेकिन क्या होगा यदि आप कुछ अजीब चीजें देखते हैं जैसे कि एक अलग पृष्ठभूमि, एक अलग वीडियो आकार या गुणवत्ता, एक वॉटरमार्क, या अन्य संपर्क जानकारी? आप ठगी के शिकार हो सकते हैं।
डीपफेक तकनीक के शिकार
हाँ! बढ़ती तकनीक, विशेष रूप से कृत्रिम बुद्धिमता ने जालसाजों को हर जगह निर्दोष लोगों को धोखा देने के लिए अधिक विश्वसनीयता प्रदान की है। उत्तरी चीन में हुई ऐसी ही एक घटना में डीपफेक तकनीक का इस्तेमाल कर एक व्यक्ति को वीडियो कॉल करने के लिए बरगलाया गया।
एक वीडियो बातचीत के दौरान, जालसाज़ डीपफेक नामक एआई-पावर्ड फेस-स्वैपिंग तकनीक का उपयोग करके पीड़ित का करीबी दोस्त होने का नाटक कर सकता है।
चीनी तकनीक का इस्तेमाल कर चीन में एक शख्स को 43 लाख युआन (5 करोड़ रुपये से ज्यादा) ट्रांसफर करने पर भी राजी कर लिया गया। हादसा चीन के बाओटौ में हुआ। जब उसके सच्चे दोस्त ने पीड़ित को कॉल के बारे में सूचित किया, तो पीड़ित ने पहचान लिया कि उसे बरगलाया गया है।
एक आधिकारिक बयान में, स्थानीय पुलिस ने कहा कि वे चुराए गए अधिकांश धन को पुनर्प्राप्त करने में सक्षम थे और शेष राशि को खोजने के लिए सक्रिय प्रयास कर रहे थे। चीन एआई-संचालित धोखाधड़ी से उत्पन्न बढ़ते खतरे के जवाब में इस तकनीक पर सक्रिय रूप से शोध कर रहा है, और पीड़ितों को कानूनी सुरक्षा प्रदान करने के लिए इस साल जनवरी में नया कानून स्थापित किया गया था।
ऐसे कॉल्स को कैसे ट्रेस करें ?
धोखाधड़ी वाले वीडियो कॉल का पता कैसे लगाया जाए, यह अब विवादों में है। संपर्क जानकारी, नाम और पृष्ठभूमि बनाने सहित इन समस्याओं से बचने के लिए कुछ तकनीकें हैं। सूक्ष्म संकेत दें कि एक वीडियो कॉल नकली हो रही है। आइए इसकी चर्चा करें।
वीडियो क्षमता: जैसा कि आप देख सकते हैं, नकली वीडियो में आमतौर पर निम्न गुणवत्ता होती है। चूंकि फर्जी वीडियो ऑनलाइन स्रोतों से उत्पन्न होता है, हमेशा वॉटरमार्क या अन्य बताने वाले संकेतों की तलाश करें।
संपर्क जानकारी: आपको यह निर्धारित करना चाहिए कि कॉलर वह है जिसे आप अपनी संपर्क सूची से पहचानते हैं। वीडियो कॉल के दौरान दिखाई देने वाले संपर्क नाम और जानकारी की भी जांच करें।
अगर कोई वीडियो कॉल पर होने का नाटक कर रहा है तो वेबकैम विंडो में फ़िट होने के लिए वीडियो का आकार बदलें। इस क्रिया से वीडियो अनुपात विकृत हो सकता है, जिससे यह विकृत दिखाई देता है।
डीपफेक कितने प्रचलित हैं?
हाल के वर्षों में, डीपफेक तकनीक लोगों के लिए एक समस्या बन गई है। यह यथार्थवादी दिखने वाले लेकिन नकली वीडियो बनाने के लिए आर्टिफिशियल इंटेलिजेंस का उपयोग करता है। इसका उपयोग छवियों या वीडियो में हेरफेर करने के लिए किया जा सकता है।
डीपफेक तकनीक लक्षित व्यक्ति के बारे में सोशल मीडिया से दृश्य और श्रवण डेटा एकत्र करने से शुरू होती है जो आम जनता के लिए आसानी से सुलभ होती है। डीपफेक के लक्ष्य विषय को दोहराने के लिए एक गहन शिक्षण मॉडल को प्रशिक्षित करने के लिए डेटा का उपयोग किया जाता है।
सट्टा ( satta ) एक वेबसाइट है जो आपको नई तकनीक के समाचार और तकनीकी खोज की जानकारी देती है और यह इंटरनेट के बारे में भी नए जानकारी साझा कर रही है।