AI से फर्जी एक्टर बनकर महिला से ठगे 11 लाख रुपये, जानिए कैसे रची गई यह हाईटेक ठगी
इस केस में ठगों ने हॉलीवुड सुपरस्टार जॉर्ज क्लूनी की आवाज और चेहरे की हूबहू नकल करते हुए एक डीपफेक वीडियो तैयार किया. इस वीडियो में क्लूनी महिला से बात करता, मुस्कुराता और पलकें झपकाता नजर आया, जिससे महिला को शक होने का कोई कारण नहीं दिखा.
दरअसल, महिला ने फेसबुक पर एक प्रोफाइल देखा जो खुद को जॉर्ज क्लूनी का ऑफिशियल अकाउंट बता रहा था. बातचीत का सिलसिला शुरू हुआ और करीब छह हफ्तों तक महिला को AI से तैयार की गई नकली वीडियो कॉल्स और मैसेज मिलते रहे. महिला को यह पूरी तरह विश्वास हो गया कि वह असली एक्टर से जुड़ी है.
धीरे-धीरे ‘क्लूनी’ बने ठग ने महिला से भावनात्मक जुड़ाव बनाना शुरू किया. महिला को भरोसा दिलाया गया कि जॉर्ज क्लूनी अपनी पत्नी से अलग होना चाहता है और उसकी आर्थिक मदद की जरूरत है. उसने महिला से कहा कि उसका फैन क्लब कार्ड काम नहीं कर रहा और उसे कुछ पैसों की सख्त जरूरत है. बदले में नौकरी दिलाने का वादा भी किया गया.
इस भरोसे और लगाव का फायदा उठाते हुए ठगों ने महिला से 10,000 पाउंड (करीब 11.3 लाख रुपये) ऐंठ लिए. AI से तैयार नकली वीडियो और मैसेज इतने असली लग रहे थे कि महिला को अंदाजा ही नहीं हुआ कि वह ठगी का शिकार हो रही है.
इससे मिलती-जुलती एक और घटना फ्रांस में जनवरी में सामने आई थी. वहां एक महिला को ब्रैड पिट के नकली AI अवतार से बात करवाई गई और करीब 7.9 करोड़ रुपये की ठगी की गई. उस केस में भी डीपफेक टेक्नोलॉजी का इस्तेमाल कर महिला को गुमराह किया गया था.
सोशल मीडिया पर किसी अनजान या सेलिब्रिटी अकाउंट से संपर्क में आने पर पूरी सतर्कता बरतें. किसी भी वीडियो या मैसेज को आंख मूंदकर सच न मानें – आजकल डीपफेक से सब कुछ नकली बनाना आसान हो गया है. आर्थिक मदद या फाइनेंशियल डिटेल्स की मांग होने पर तुरंत सतर्क हो जाएं. संदेहास्पद गतिविधियों की सूचना साइबर सेल या संबंधित सुरक्षा एजेंसियों को दें.