एक्सप्लोरर

'डीपफेक' एक ऐसा तकनीकी कमाल जिसका गलत इस्तेमाल डाल देगा हमारी सुरक्षा को खतरे में

ऐसा कहा जाता है कि टेक्नोलॉजी हमारे जीवन को आसान बनाती है, बेहतर बनाती है, और हमारी कार्यकुशलता को बेहतर बनाती है. लेकिन वहीं दूसरी ओर टेक्नोलॉजी के बहुत बड़े दुष्परिणाम भी होते हैं, अगर उसे सही से इस्तेमाल ना किया जाए, या उसे गलत मंतव्य से इस्तेमाल किया जाए. इन दिनों आर्टिफिशल इंटेलिजेंस का बहुत बोलबाला हो रहा है, ऐसा बताया जा रहा है कि जैसे यह टेक्नोलॉजी मानव इतिहास में सबसे बड़ा बदलाव लाने वाली है. यह हमारे आचार व्यवहार को बदल कर रख देगी, और मशीनों के उपयोग को बढ़ा देगी. हमारे रोजमर्रा के काम इस टेक्नोलॉजी द्वारा किये जाएंगे, सब कुछ ऑटोमेट कर दिया जाएगा. लेकिन इसी टेक्नोलॉजी के कुछ बहुत बड़े खतरे भी हैं.

तकनीक से जीवन में खतरा भी

पिछले ही दिनों अभिनेत्री रश्मिका मंधाना का एक वीडियो वायरल हुआ था, जिसके पश्चात उन्होंने सोशल मीडिया पर एक पोस्ट करते हुए इस वीडियो का खंडन किया था. दरअसल इस वीडियो में रश्मिका के चेहरे का इस्तेमाल किया गया था, और एक ब्रिटिश लड़की जो इंस्टाग्राम पर अच्छा ख़ासा नाम हैं, उनके शरीर पर रश्मिका का चेहरा लगाया गया था, और यह इतना सटीक बनाया गया था, कि हर किसी को यह वीडियो रश्मिका का लग रहा था. इस वीडियो को बनाने के लिए डीप फेक टेक्नोलॉजी का इस्तेमाल किया गया था. रश्मिका ने 'डीप फेक' टेक्नोलॉजी के खतरों को इंगित किया था, और यह भी बताया कि उन जैसी सेलिब्रिटी को इस वीडियो की सच्चाई को स्थापित करने के लिए इतने प्रयास करने पड़ रहे हैं, ऐसे में कोई आम इंसान इस तरह के वीडियो और दुष्प्रचार से कैसे लड़ पायेगा? रश्मिका ने इस टेक्नोलॉजी के भयावह पक्ष को सामने रखा है. 

डीप फेक को समझिए 

डीप फेक दरअसल एक सिंथेटिक मीडिया को कहते हैं, जिसे deep learning और generative methods को इस्तेमाल करके, किसी तस्वीर या वीडियो को तोड़-मरोड़ (मैन्युपुलेट) करके बनाया जाता है. यह आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग जैसी टेक्नोलॉजी को इस्तेमाल करता है, जिससे किसी भी प्रकार की इमेज, वीडियो या ऑडियो कंटेंट बनाया जा सकता है, और यह कंटेंट दरअसल फेक होता है, जिससे किसी को धोखा दिया जा सकता है. इसका एक उदाहरण लेते हैं. मान लीजिये आपको एक डीप फेक वीडियो बनाना है, और आप किसी फिल्म एक्टर के चेहरे का इस्तेमाल कर उसे अपने धड़ पर लगा कर एक फेक वीडियो बनाना चाहते हैं. तो आप किसी भी डीप फेक वीडियो मेकर का इस्तेमाल कर सकते हैं .यह एप्लिकेशन आपके धड़ पर उस एक्टर के चेहरे को लगा देगा, आपकी आवाज़ को उस एक्टर की आवाज़ से बदल देगा, यहां तक कि आप के चेहरे के भावों और आपके शब्दों के भाव को उस एक्टर के चेहरे और आवाज़ के भावो से बदल देगा. इसके लिए deep fake एप्लीकेशन कुछ ख़ास टेक्नोलॉजी जैसे, Deep Learning, ऑटोएनकोडर्स, डिकोडर्स और जीएएन यानी जेनरेटिव एडवर्सरियल नेटवर्क्स का इस्तेमाल करता है. इन सभी टेक्नोलॉजी का इस्तेमाल करके उस एक्टर की पहले से उपस्थित फोटो, वॉयस सैम्पल्स, वीडियो सैम्पल्स का उपयोग किया जाएगा और उसे आपके बनाये वीडियो पर इस तरह से बैठाया जाएगा, कि लगेगा जैसे यह उसी एक्टर की वीडियो, ऑडियो या तस्वीर है.

डीप फेक का इस्तेमाल गंभीर अपराधों में

चीन में पिछले दिनों एक व्यक्ति को 5 करोड़ रूपए का चूना लग गया. हुआ यह था कि उसके पास एक वीडियो कॉल आई, वीडियो में उसका करीबी दोस्त था, जो काफी परेशानी में दिख रहा था. दोस्त ने स्वयं को बहुत बुरी हालत में दिखाया और आर्थिक मदद मांगी. चूंकि दोस्त सामने दिख रहा था, बात कर रहा था, इस व्यक्ति का दिल पसीज गया, और फिर इसने अपने कथित दोस्त के दिए गए अकाउंट में पैसे ट्रांसफर कर दिए. बाद में पता लगा कि उस दोस्त ने कभी कॉल किया ही नहीं था, यह एक डीप फेक कॉल थी, और इस व्यक्ति के साथ ठगी हो गई थी. मामले की जांच पुलिस ने की, बैंक के ट्रांसफर को ट्रेस किया गया और अधिकांश पैसा रिकवर कर लिया गया. अपराधी भी पकड़ा गया. इस घटना में अपराधी ने उस व्यक्ति के दोस्त की फोटो और वीडियो का इस्तेमाल करके (जो आमतौर पर social media पर मिल ही जाती हैं) अपने चेहरे पर उसका चेहरा लगा दिया. फिर एक वीडियो कॉल मिलाई, बातें की और यह बताया कि वह किसी समस्या में है. चूंकि डीप फेक की सहायता से बनाये वीडियो में अपराधी के हाव भाव भी हूबहू पीड़ित व्यक्ति के दोस्त के जैसे हो गए थे, इसलिए उसे विश्वास हो गया, और उसने पैसे ट्रांसफर कर दिए. ऐसी ही एक घटना अमेरिका के एरिजोना में हुई, जहाँ एक 15 साल की लड़की स्कीइंग करने गई थी. अचानक से उसकी मां को एक कॉल आता है. शुरुआत उस लड़की के रोने की आवाज़ से होती है, यह सुन कर माँ घबरा जाती है और अपनी बेटी से प्रश्न पूछने की कोशिश करती है.
इतने में ही एक पुरुष की आवाज़ आती है, वह कहता है कि उस महिला की बेटी उसके कब्जे में है, और अगर 10 लाख डॉलर नहीं दिये तो वह उसकी बेटी को मार देगा. मां गिड़गिड़ाई, कहा कि इतने पैसे नहीं हैं, लेकिन अपहरण करने वाला 5 लाख डॉलर पर अड़ जाता है. माँ उससे थोड़ी मोहलत मांगती है, वह आदमी धमकी देता है कि अगर पुलिस को पता चला तो उसकी बेटी को मार देगा.

महिला अपनी एक दोस्त को फोन करती है, और उसे यह सब बताती है. वह दोस्त तुरंत उस जगह कॉल करती है जो स्कीइंग के लिए गया था, वहाँ पता लगता है कि उस लड़की का अपहरण नहीं हुआ था, वह तो वहां घूम रही थी और सुरक्षित थी. उन्होंने तुरंत 911 पर कॉल किया और उन्हें इस बारे में बताया गया, कि उसकी बेटी की आवाज में उन्हें कॉल करके डराया गया और पैसे उगाहने की कोशिश की गई.
इस घटना में अपराधी ने लड़की की आवाज के सैंपल्स सोशल मीडिया या फ़ोन रिकॉर्डिंग से, या ऐसे ही कहीं बोलते हुए लिए होंगे, और फिर उस आवाज़ के सैंपल को डीप फेक वॉयस जेनरेटर में डाला गया होगा, और फिर उस लड़की की आवाज में चीखने चिल्लाने और मदद मांगने जैसे शब्द बना लिए गए होंगे. यह तो अच्छा हुआ कि उस महिला ने अपनी दोस्त से सहायता मांगी, और उन्होंने सीधा स्कीइंग ग्रुप को ही कॉल कर लिया, अन्यथा यहां भी अपराध हो सकता था.

डीप फेक के दुष्परिणाम 

अब समस्या यह है कि जैसे जैसे कृत्रिम बुद्धि (आर्टिफिशियल इंटेलिजेंस या एआई) और मशीन लर्निंग उन्नत होती जायेगी, इस तरह की और समस्याएं बढ़ती जाएंगी. कुछ समय पहले तक Deepfake Videos को पहचानना आसान हुआ करता था. लेकिन अब App Developers ने इन कमियों को भी सुधार दिया है, वैसे भी AI तो हमेशा learn ही करता रहता है, विभिन्न Data Patterns को समझता रहता है. अब डीप फेक की एप्स इतनी उन्नत हो गयी हैं कि इनमे बनाये वीडियो में पलकें झपकना भी एकदम सामान्य लगता है, वहीं वीडियो और इमेज के Edges भी अब पहले से बेहतर हो गए हैं. कई देशों में ए आई टीवी न्यूजकास्टर भी शुरू हो गए हैं, जो हूबहू इंसान जैसे लगते हैं, और ख़बर पढते हैं. पिछले ही दिनों भारत में भी कुछ मीडिया घरों ने इसको लांच किया था. हालांकि, इसके नुकसान भी हैं, जैसे ऊपर २ उदाहरणों में बताये हैं. इसके अलावा फेक न्यूज फैलाने में इसका इस्तेमाल किया जा सकता है. डीप फेक की सहायता से चुनावी अभियान भी प्रभावित किये जा सकते हैं.

कैसे बचें डीप फेक से?

लेख में बताई दोनों घटनाओं से आप अपने आपको बचा सकते हैं. फिलहाल तो यही कहा जा सकता है कि अगर आपको अनजाने नम्बर या आइडी से वीडियो कॉल आये, तो उस पर विश्वास ना करें. किसी को पैसा देने से पहले उससे फोन पर बात करे लें. अगर करीबी दोस्त है, परेशानी में है, तो उसके परिवार में से किसी से बात कर के स्थिति के बारे में जानने का प्रयास करें. आप कहीं छुट्टी पर जा रहे हैं, या आपके बच्चे कहीं जा रहे हैं, तो उसके बारे में सोशल मीडिया पर ना लिखें. दूसरी घटना में यह बात अपराधी को पता थी, और उसी का लाभ उठाने का प्रयास किया गया. आपको तस्वीरें डालनी हैं, वापस लौट कर डाल लें. क्या पता आप ऐसे इलाके में हों जहां आपसे संपर्क ना हो पाए, और कोई अपराधी इस स्थिति का लाभ उठा कर आपके घर वालों से पैसा वसूल ले. प्रयास कीजिये कि आपकी तसवीरें, वीडियो सोशल मीडिया पर कम से कम हों. अगर आपने यह कंटेंट डाला भी है, तो प्रयास कीजिये कि आप कड़ी सिक्योरिटी सेटिंग करके रखें, ताकि आपका कंटेंट चोरी कर उसका दुरुपयोग ना किया जा सके. अंत में सबसे महत्वपूर्ण बात. टेक्नोलॉजी कितनी ही उन्नत हो जाए, वह मानव के मूलभूत स्वभाव और परिस्थितिजन्य जागरूकता का मुकाबला नहीं कर पाएगी. कोई भी अपराध तभी होता है, जब आप अपने मूल स्वभाव से हट कर निर्णय लेते हैं. आपको पता है कि शॉर्टकट से पैसा नहीं मिलता, लेकिन फिर भी लोग लालच में आ कर लाखों झोंक देते हैं, और कोई उस पैसे को लेकर चंपत हो जाता है. अपनी बेसिक इंस्टिंक्ट को बचाये रखें, तभी टेक्नोलॉजी के दुष्प्रभावो से बच पाएंगे.

View More

ओपिनियन

Sponsored Links by Taboola
25°C
New Delhi
Rain: 100mm
Humidity: 97%
Wind: WNW 47km/h

टॉप हेडलाइंस

'कुछ ही घंटों में तबाह कर घुटनों पर ला देंगे...',  एयर चीफ मार्शल एपी सिंह की पाकिस्तान को सख्त चेतावनी!
'कुछ ही घंटों में तबाह कर घुटनों पर ला देंगे...', एयर चीफ मार्शल एपी सिंह की पाकिस्तान को सख्त चेतावनी!
अखिलेश और सीएम योगी का नाम लेकर शंकराचार्य अविमुक्तेश्वरानंद ने कर दिया बड़ा दावा, पूछा- पीड़ा नहीं हो रही?
अखिलेश और सीएम योगी का नाम लेकर शंकराचार्य अविमुक्तेश्वरानंद ने कर दिया बड़ा दावा, पूछा- पीड़ा नहीं हो रही?
IND vs NZ पहले टी20 में अभिषेक शर्मा के पास इतिहास रचने का मौका, गुरू युवराज सिंह को पछाड़ बन सकते हैं नए 'सिक्सर किंग'
IND vs NZ पहले टी20 में अभिषेक शर्मा के पास इतिहास रचने का मौका, गुरू युवराज सिंह को पछाड़ बन सकते हैं नए 'सिक्सर किंग'
हर्षा रिछारिया का बड़ा बयान, 'कुछ संत ऐसे हैं जिनसे मैं परेशान हो गई थी, नाम...'
हर्षा रिछारिया का बड़ा बयान, 'कुछ संत ऐसे हैं जिनसे मैं परेशान हो गई थी, नाम नहीं लूंगी'
ABP Premium

वीडियोज

Engineer Death Case: जहां हुई थी Yuvraj की मौत वहां बाल-बाल बचा था ये ट्रक ड्राइवर । Exclusive
Prayagraj Aircraft Crash: विमान तालाब में गिरा--रेस्क्यू ऑपरेशन जारी  । UP News । Breaking News
Budget 2026 बड़ा झटका? Old Tax Regime होगा खत्म | New Tax Regime बनेगा Default | Paisa Live
China Risk vs India’s Phone Factories: Budget 2026 का सबसे बड़ा Test | Paisa Live
Tata Punch Now Has a Punch  | Auto Live

पर्सनल कार्नर

टॉप आर्टिकल्स
टॉप रील्स
'कुछ ही घंटों में तबाह कर घुटनों पर ला देंगे...',  एयर चीफ मार्शल एपी सिंह की पाकिस्तान को सख्त चेतावनी!
'कुछ ही घंटों में तबाह कर घुटनों पर ला देंगे...', एयर चीफ मार्शल एपी सिंह की पाकिस्तान को सख्त चेतावनी!
अखिलेश और सीएम योगी का नाम लेकर शंकराचार्य अविमुक्तेश्वरानंद ने कर दिया बड़ा दावा, पूछा- पीड़ा नहीं हो रही?
अखिलेश और सीएम योगी का नाम लेकर शंकराचार्य अविमुक्तेश्वरानंद ने कर दिया बड़ा दावा, पूछा- पीड़ा नहीं हो रही?
IND vs NZ पहले टी20 में अभिषेक शर्मा के पास इतिहास रचने का मौका, गुरू युवराज सिंह को पछाड़ बन सकते हैं नए 'सिक्सर किंग'
IND vs NZ पहले टी20 में अभिषेक शर्मा के पास इतिहास रचने का मौका, गुरू युवराज सिंह को पछाड़ बन सकते हैं नए 'सिक्सर किंग'
हर्षा रिछारिया का बड़ा बयान, 'कुछ संत ऐसे हैं जिनसे मैं परेशान हो गई थी, नाम...'
हर्षा रिछारिया का बड़ा बयान, 'कुछ संत ऐसे हैं जिनसे मैं परेशान हो गई थी, नाम नहीं लूंगी'
US JD Vance: अमेरिका को जेडी वेंस ने दी ऐसी गुड न्यूज, खुशी से झूम उठा व्हाइट हाउस, जानें क्या लिखा
अमेरिका को जेडी वेंस ने दी ऐसी गुड न्यूज, खुशी से झूम उठा व्हाइट हाउस, जानें क्या लिखा
जोधपुर में हाई वोल्टेज ड्रामा! कांग्रेस विधायक ने ज्ञापन फाड़कर SDM के मुंह पर फेंका, वायरल हुआ वीडियो
जोधपुर में हाई वोल्टेज ड्रामा! कांग्रेस विधायक ने ज्ञापन फाड़कर SDM के मुंह पर फेंका, Viral हुआ Video
Video: चोरी या बेबसी? बुजुर्ग महिला ने चुराई मूर्ति पर डली शॉल, वीडियो देख पिघल जाएगा आपका भी दिल
चोरी या बेबसी? बुजुर्ग महिला ने चुराई मूर्ति पर डली शॉल, वीडियो देख पिघल जाएगा आपका भी दिल
GRAP-4 हटने के बाद भी नहीं कर सकते ये काम, वरना लग जाएगी इतनी पेनाल्टी
GRAP-4 हटने के बाद भी नहीं कर सकते ये काम, वरना लग जाएगी इतनी पेनाल्टी
Embed widget