एक्सप्लोरर

'डीपफेक' एक ऐसा तकनीकी कमाल जिसका गलत इस्तेमाल डाल देगा हमारी सुरक्षा को खतरे में

ऐसा कहा जाता है कि टेक्नोलॉजी हमारे जीवन को आसान बनाती है, बेहतर बनाती है, और हमारी कार्यकुशलता को बेहतर बनाती है. लेकिन वहीं दूसरी ओर टेक्नोलॉजी के बहुत बड़े दुष्परिणाम भी होते हैं, अगर उसे सही से इस्तेमाल ना किया जाए, या उसे गलत मंतव्य से इस्तेमाल किया जाए. इन दिनों आर्टिफिशल इंटेलिजेंस का बहुत बोलबाला हो रहा है, ऐसा बताया जा रहा है कि जैसे यह टेक्नोलॉजी मानव इतिहास में सबसे बड़ा बदलाव लाने वाली है. यह हमारे आचार व्यवहार को बदल कर रख देगी, और मशीनों के उपयोग को बढ़ा देगी. हमारे रोजमर्रा के काम इस टेक्नोलॉजी द्वारा किये जाएंगे, सब कुछ ऑटोमेट कर दिया जाएगा. लेकिन इसी टेक्नोलॉजी के कुछ बहुत बड़े खतरे भी हैं.

तकनीक से जीवन में खतरा भी

पिछले ही दिनों अभिनेत्री रश्मिका मंधाना का एक वीडियो वायरल हुआ था, जिसके पश्चात उन्होंने सोशल मीडिया पर एक पोस्ट करते हुए इस वीडियो का खंडन किया था. दरअसल इस वीडियो में रश्मिका के चेहरे का इस्तेमाल किया गया था, और एक ब्रिटिश लड़की जो इंस्टाग्राम पर अच्छा ख़ासा नाम हैं, उनके शरीर पर रश्मिका का चेहरा लगाया गया था, और यह इतना सटीक बनाया गया था, कि हर किसी को यह वीडियो रश्मिका का लग रहा था. इस वीडियो को बनाने के लिए डीप फेक टेक्नोलॉजी का इस्तेमाल किया गया था. रश्मिका ने 'डीप फेक' टेक्नोलॉजी के खतरों को इंगित किया था, और यह भी बताया कि उन जैसी सेलिब्रिटी को इस वीडियो की सच्चाई को स्थापित करने के लिए इतने प्रयास करने पड़ रहे हैं, ऐसे में कोई आम इंसान इस तरह के वीडियो और दुष्प्रचार से कैसे लड़ पायेगा? रश्मिका ने इस टेक्नोलॉजी के भयावह पक्ष को सामने रखा है. 

डीप फेक को समझिए 

डीप फेक दरअसल एक सिंथेटिक मीडिया को कहते हैं, जिसे deep learning और generative methods को इस्तेमाल करके, किसी तस्वीर या वीडियो को तोड़-मरोड़ (मैन्युपुलेट) करके बनाया जाता है. यह आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग जैसी टेक्नोलॉजी को इस्तेमाल करता है, जिससे किसी भी प्रकार की इमेज, वीडियो या ऑडियो कंटेंट बनाया जा सकता है, और यह कंटेंट दरअसल फेक होता है, जिससे किसी को धोखा दिया जा सकता है. इसका एक उदाहरण लेते हैं. मान लीजिये आपको एक डीप फेक वीडियो बनाना है, और आप किसी फिल्म एक्टर के चेहरे का इस्तेमाल कर उसे अपने धड़ पर लगा कर एक फेक वीडियो बनाना चाहते हैं. तो आप किसी भी डीप फेक वीडियो मेकर का इस्तेमाल कर सकते हैं .यह एप्लिकेशन आपके धड़ पर उस एक्टर के चेहरे को लगा देगा, आपकी आवाज़ को उस एक्टर की आवाज़ से बदल देगा, यहां तक कि आप के चेहरे के भावों और आपके शब्दों के भाव को उस एक्टर के चेहरे और आवाज़ के भावो से बदल देगा. इसके लिए deep fake एप्लीकेशन कुछ ख़ास टेक्नोलॉजी जैसे, Deep Learning, ऑटोएनकोडर्स, डिकोडर्स और जीएएन यानी जेनरेटिव एडवर्सरियल नेटवर्क्स का इस्तेमाल करता है. इन सभी टेक्नोलॉजी का इस्तेमाल करके उस एक्टर की पहले से उपस्थित फोटो, वॉयस सैम्पल्स, वीडियो सैम्पल्स का उपयोग किया जाएगा और उसे आपके बनाये वीडियो पर इस तरह से बैठाया जाएगा, कि लगेगा जैसे यह उसी एक्टर की वीडियो, ऑडियो या तस्वीर है.

डीप फेक का इस्तेमाल गंभीर अपराधों में

चीन में पिछले दिनों एक व्यक्ति को 5 करोड़ रूपए का चूना लग गया. हुआ यह था कि उसके पास एक वीडियो कॉल आई, वीडियो में उसका करीबी दोस्त था, जो काफी परेशानी में दिख रहा था. दोस्त ने स्वयं को बहुत बुरी हालत में दिखाया और आर्थिक मदद मांगी. चूंकि दोस्त सामने दिख रहा था, बात कर रहा था, इस व्यक्ति का दिल पसीज गया, और फिर इसने अपने कथित दोस्त के दिए गए अकाउंट में पैसे ट्रांसफर कर दिए. बाद में पता लगा कि उस दोस्त ने कभी कॉल किया ही नहीं था, यह एक डीप फेक कॉल थी, और इस व्यक्ति के साथ ठगी हो गई थी. मामले की जांच पुलिस ने की, बैंक के ट्रांसफर को ट्रेस किया गया और अधिकांश पैसा रिकवर कर लिया गया. अपराधी भी पकड़ा गया. इस घटना में अपराधी ने उस व्यक्ति के दोस्त की फोटो और वीडियो का इस्तेमाल करके (जो आमतौर पर social media पर मिल ही जाती हैं) अपने चेहरे पर उसका चेहरा लगा दिया. फिर एक वीडियो कॉल मिलाई, बातें की और यह बताया कि वह किसी समस्या में है. चूंकि डीप फेक की सहायता से बनाये वीडियो में अपराधी के हाव भाव भी हूबहू पीड़ित व्यक्ति के दोस्त के जैसे हो गए थे, इसलिए उसे विश्वास हो गया, और उसने पैसे ट्रांसफर कर दिए. ऐसी ही एक घटना अमेरिका के एरिजोना में हुई, जहाँ एक 15 साल की लड़की स्कीइंग करने गई थी. अचानक से उसकी मां को एक कॉल आता है. शुरुआत उस लड़की के रोने की आवाज़ से होती है, यह सुन कर माँ घबरा जाती है और अपनी बेटी से प्रश्न पूछने की कोशिश करती है.
इतने में ही एक पुरुष की आवाज़ आती है, वह कहता है कि उस महिला की बेटी उसके कब्जे में है, और अगर 10 लाख डॉलर नहीं दिये तो वह उसकी बेटी को मार देगा. मां गिड़गिड़ाई, कहा कि इतने पैसे नहीं हैं, लेकिन अपहरण करने वाला 5 लाख डॉलर पर अड़ जाता है. माँ उससे थोड़ी मोहलत मांगती है, वह आदमी धमकी देता है कि अगर पुलिस को पता चला तो उसकी बेटी को मार देगा.

महिला अपनी एक दोस्त को फोन करती है, और उसे यह सब बताती है. वह दोस्त तुरंत उस जगह कॉल करती है जो स्कीइंग के लिए गया था, वहाँ पता लगता है कि उस लड़की का अपहरण नहीं हुआ था, वह तो वहां घूम रही थी और सुरक्षित थी. उन्होंने तुरंत 911 पर कॉल किया और उन्हें इस बारे में बताया गया, कि उसकी बेटी की आवाज में उन्हें कॉल करके डराया गया और पैसे उगाहने की कोशिश की गई.
इस घटना में अपराधी ने लड़की की आवाज के सैंपल्स सोशल मीडिया या फ़ोन रिकॉर्डिंग से, या ऐसे ही कहीं बोलते हुए लिए होंगे, और फिर उस आवाज़ के सैंपल को डीप फेक वॉयस जेनरेटर में डाला गया होगा, और फिर उस लड़की की आवाज में चीखने चिल्लाने और मदद मांगने जैसे शब्द बना लिए गए होंगे. यह तो अच्छा हुआ कि उस महिला ने अपनी दोस्त से सहायता मांगी, और उन्होंने सीधा स्कीइंग ग्रुप को ही कॉल कर लिया, अन्यथा यहां भी अपराध हो सकता था.

डीप फेक के दुष्परिणाम 

अब समस्या यह है कि जैसे जैसे कृत्रिम बुद्धि (आर्टिफिशियल इंटेलिजेंस या एआई) और मशीन लर्निंग उन्नत होती जायेगी, इस तरह की और समस्याएं बढ़ती जाएंगी. कुछ समय पहले तक Deepfake Videos को पहचानना आसान हुआ करता था. लेकिन अब App Developers ने इन कमियों को भी सुधार दिया है, वैसे भी AI तो हमेशा learn ही करता रहता है, विभिन्न Data Patterns को समझता रहता है. अब डीप फेक की एप्स इतनी उन्नत हो गयी हैं कि इनमे बनाये वीडियो में पलकें झपकना भी एकदम सामान्य लगता है, वहीं वीडियो और इमेज के Edges भी अब पहले से बेहतर हो गए हैं. कई देशों में ए आई टीवी न्यूजकास्टर भी शुरू हो गए हैं, जो हूबहू इंसान जैसे लगते हैं, और ख़बर पढते हैं. पिछले ही दिनों भारत में भी कुछ मीडिया घरों ने इसको लांच किया था. हालांकि, इसके नुकसान भी हैं, जैसे ऊपर २ उदाहरणों में बताये हैं. इसके अलावा फेक न्यूज फैलाने में इसका इस्तेमाल किया जा सकता है. डीप फेक की सहायता से चुनावी अभियान भी प्रभावित किये जा सकते हैं.

कैसे बचें डीप फेक से?

लेख में बताई दोनों घटनाओं से आप अपने आपको बचा सकते हैं. फिलहाल तो यही कहा जा सकता है कि अगर आपको अनजाने नम्बर या आइडी से वीडियो कॉल आये, तो उस पर विश्वास ना करें. किसी को पैसा देने से पहले उससे फोन पर बात करे लें. अगर करीबी दोस्त है, परेशानी में है, तो उसके परिवार में से किसी से बात कर के स्थिति के बारे में जानने का प्रयास करें. आप कहीं छुट्टी पर जा रहे हैं, या आपके बच्चे कहीं जा रहे हैं, तो उसके बारे में सोशल मीडिया पर ना लिखें. दूसरी घटना में यह बात अपराधी को पता थी, और उसी का लाभ उठाने का प्रयास किया गया. आपको तस्वीरें डालनी हैं, वापस लौट कर डाल लें. क्या पता आप ऐसे इलाके में हों जहां आपसे संपर्क ना हो पाए, और कोई अपराधी इस स्थिति का लाभ उठा कर आपके घर वालों से पैसा वसूल ले. प्रयास कीजिये कि आपकी तसवीरें, वीडियो सोशल मीडिया पर कम से कम हों. अगर आपने यह कंटेंट डाला भी है, तो प्रयास कीजिये कि आप कड़ी सिक्योरिटी सेटिंग करके रखें, ताकि आपका कंटेंट चोरी कर उसका दुरुपयोग ना किया जा सके. अंत में सबसे महत्वपूर्ण बात. टेक्नोलॉजी कितनी ही उन्नत हो जाए, वह मानव के मूलभूत स्वभाव और परिस्थितिजन्य जागरूकता का मुकाबला नहीं कर पाएगी. कोई भी अपराध तभी होता है, जब आप अपने मूल स्वभाव से हट कर निर्णय लेते हैं. आपको पता है कि शॉर्टकट से पैसा नहीं मिलता, लेकिन फिर भी लोग लालच में आ कर लाखों झोंक देते हैं, और कोई उस पैसे को लेकर चंपत हो जाता है. अपनी बेसिक इंस्टिंक्ट को बचाये रखें, तभी टेक्नोलॉजी के दुष्प्रभावो से बच पाएंगे.

View More

ओपिनियन

Sponsored Links by Taboola
25°C
New Delhi
Rain: 100mm
Humidity: 97%
Wind: WNW 47km/h

टॉप हेडलाइंस

ढोंगी शांतिदूत पाकिस्तान ने दिखाई असलियत, अफगानिस्तान में विश्वविद्यालय और रिहाइशी इलाकों पर किया हमला, 4 मरे और 46 घायल
ढोंगी शांतिदूत पाकिस्तान ने दिखाई असलियत, अफगानिस्तान में रिहाइशी इलाकों पर किया हमला, 4 की मौत
UP Weather: यूपी का बांदा रहा देश की सबसे गर्म जगह, 47.6°C तापमान दर्ज, तोड़े पिछले रिकॉर्ड
यूपी का बांदा रहा देश की सबसे गर्म जगह, 47.6°C तापमान दर्ज, तोड़े पिछले रिकॉर्ड
'ऋषभ पंत को कप्तानी से हटाओ', संजीव गोयनका से दिग्गज की मांग; डिटेल में बताया कारण
'ऋषभ पंत को कप्तानी से हटाओ', संजीव गोयनका से दिग्गज की मांग; डिटेल में बताया कारण
दांत टूटा, चेहरा सूजा, Splitsvilla 16 की कंटेस्टेंट के साथ शख्स ने की मारपीट, हुआ बुरा हाल
दांत टूटा, चेहरा सूजा, Splitsvilla 16 की कंटेस्टेंट के साथ शख्स ने की मारपीट, हुआ बुरा हाल

वीडियोज

Chitra Tripathi: वोट का 'धर्मयुद्ध', बंगाल में कौन जीतेगा? | West Bengal Election | Mamata Banerjee
Breaking News: एक तरफ प्रचार, दुसरी तरफ हमला...TMC बना निशाना! | West Bengal Election | Voilence
West Bengal Election 2026: बंगाल में Modi-Yogi-Shah का Road Show | Mamata Banerjee | TMC | BJP
Trump News:  ट्रंप को मारने आए शख्स Cole Tomas Allen का सच जानकर उड़ जाएंगे होश! | Secret Service
Kejriwal vs Justice Swarna Kanta: केजरीवाल का खुला विद्रोह, सत्याग्रह का ऐलान! | Delhi High Court

पर्सनल कार्नर

टॉप आर्टिकल्स
टॉप रील्स
ढोंगी शांतिदूत पाकिस्तान ने दिखाई असलियत, अफगानिस्तान में विश्वविद्यालय और रिहाइशी इलाकों पर किया हमला, 4 मरे और 46 घायल
ढोंगी शांतिदूत पाकिस्तान ने दिखाई असलियत, अफगानिस्तान में रिहाइशी इलाकों पर किया हमला, 4 की मौत
UP Weather: यूपी का बांदा रहा देश की सबसे गर्म जगह, 47.6°C तापमान दर्ज, तोड़े पिछले रिकॉर्ड
यूपी का बांदा रहा देश की सबसे गर्म जगह, 47.6°C तापमान दर्ज, तोड़े पिछले रिकॉर्ड
'ऋषभ पंत को कप्तानी से हटाओ', संजीव गोयनका से दिग्गज की मांग; डिटेल में बताया कारण
'ऋषभ पंत को कप्तानी से हटाओ', संजीव गोयनका से दिग्गज की मांग; डिटेल में बताया कारण
दांत टूटा, चेहरा सूजा, Splitsvilla 16 की कंटेस्टेंट के साथ शख्स ने की मारपीट, हुआ बुरा हाल
दांत टूटा, चेहरा सूजा, Splitsvilla 16 की कंटेस्टेंट के साथ शख्स ने की मारपीट, हुआ बुरा हाल
सैनिकों की मौत के बाद तिलमिलाया पाकिस्तान, अफगानिस्तान पर ड्रोन से किया अटैक, बॉर्डर पर बिगड़े हालात
सैनिकों की मौत के बाद तिलमिलाया पाकिस्तान, अफगानिस्तान पर ड्रोन से किया अटैक, बॉर्डर पर बिगड़े हालात
Delhi Rain: दिल्ली में आंधी के साथ बारिश की संभावना, भयंकर गर्मी से जल्द राहत की उम्मीद, जानें देश में कैसा रहेगा मौसम
दिल्ली में आंधी के साथ बारिश की संभावना, भयंकर गर्मी से जल्द राहत की उम्मीद, जानें देश में कैसा रहेगा मौसम
30 बच्चों की जान बचाकर खुद शहीद हो गया ‘काली’, जहरीले सांप से लड़ते हुए कुत्ते की मौत, पूरे गांव ने बहाए आंसू
30 बच्चों की जान बचाकर खुद शहीद हो गया ‘काली’, जहरीले सांप से लड़ते हुए कुत्ते की मौत, पूरे गांव ने बहाए आंसू
अब यहां बदल गए दोपहिया वाहन को लेकर नियम, नहीं कर पाएंगे ग्रुप बाइकिंग, जानें क्यों लगाया बैन?
अब यहां बदल गए दोपहिया वाहन को लेकर नियम, नहीं कर पाएंगे ग्रुप बाइकिंग, जानें क्यों लगाया बैन?
Embed widget