✕
  • होम
  • इंडिया
  • विश्व
  • उत्तर प्रदेश और उत्तराखंड
  • बिहार
  • दिल्ली NCR
  • महाराष्ट्र
  • राजस्थान
  • मध्य प्रदेश
  • हरियाणा
  • पंजाब
  • झारखंड
  • गुजरात
  • छत्तीसगढ़
  • हिमाचल प्रदेश
  • जम्मू और कश्मीर
  • बॉलीवुड
  • ओटीटी
  • टेलीविजन
  • तमिल सिनेमा
  • भोजपुरी सिनेमा
  • मूवी रिव्यू
  • रीजनल सिनेमा
  • क्रिकेट
  • आईपीएल
  • कबड्डी
  • हॉकी
  • WWE
  • ओलिंपिक
  • धर्म
  • राशिफल
  • अंक ज्योतिष
  • वास्तु शास्त्र
  • ग्रह गोचर
  • एस्ट्रो स्पेशल
  • बिजनेस
  • हेल्थ
  • रिलेशनशिप
  • ट्रैवल
  • फ़ूड
  • पैरेंटिंग
  • फैशन
  • होम टिप्स
  • GK
  • टेक
  • ऑटो
  • ट्रेंडिंग
  • शिक्षा

AI से फर्जी एक्टर बनकर महिला से ठगे 11 लाख रुपये, जानिए कैसे रची गई यह हाईटेक ठगी

एबीपी टेक डेस्क   |  18 May 2025 11:07 AM (IST)
1

इस केस में ठगों ने हॉलीवुड सुपरस्टार जॉर्ज क्लूनी की आवाज और चेहरे की हूबहू नकल करते हुए एक डीपफेक वीडियो तैयार किया. इस वीडियो में क्लूनी महिला से बात करता, मुस्कुराता और पलकें झपकाता नजर आया, जिससे महिला को शक होने का कोई कारण नहीं दिखा.

2

दरअसल, महिला ने फेसबुक पर एक प्रोफाइल देखा जो खुद को जॉर्ज क्लूनी का ऑफिशियल अकाउंट बता रहा था. बातचीत का सिलसिला शुरू हुआ और करीब छह हफ्तों तक महिला को AI से तैयार की गई नकली वीडियो कॉल्स और मैसेज मिलते रहे. महिला को यह पूरी तरह विश्वास हो गया कि वह असली एक्टर से जुड़ी है.

3

धीरे-धीरे ‘क्लूनी’ बने ठग ने महिला से भावनात्मक जुड़ाव बनाना शुरू किया. महिला को भरोसा दिलाया गया कि जॉर्ज क्लूनी अपनी पत्नी से अलग होना चाहता है और उसकी आर्थिक मदद की जरूरत है. उसने महिला से कहा कि उसका फैन क्लब कार्ड काम नहीं कर रहा और उसे कुछ पैसों की सख्त जरूरत है. बदले में नौकरी दिलाने का वादा भी किया गया.

4

इस भरोसे और लगाव का फायदा उठाते हुए ठगों ने महिला से 10,000 पाउंड (करीब 11.3 लाख रुपये) ऐंठ लिए. AI से तैयार नकली वीडियो और मैसेज इतने असली लग रहे थे कि महिला को अंदाजा ही नहीं हुआ कि वह ठगी का शिकार हो रही है.

5

इससे मिलती-जुलती एक और घटना फ्रांस में जनवरी में सामने आई थी. वहां एक महिला को ब्रैड पिट के नकली AI अवतार से बात करवाई गई और करीब 7.9 करोड़ रुपये की ठगी की गई. उस केस में भी डीपफेक टेक्नोलॉजी का इस्तेमाल कर महिला को गुमराह किया गया था.

6

सोशल मीडिया पर किसी अनजान या सेलिब्रिटी अकाउंट से संपर्क में आने पर पूरी सतर्कता बरतें. किसी भी वीडियो या मैसेज को आंख मूंदकर सच न मानें – आजकल डीपफेक से सब कुछ नकली बनाना आसान हो गया है. आर्थिक मदद या फाइनेंशियल डिटेल्स की मांग होने पर तुरंत सतर्क हो जाएं. संदेहास्पद गतिविधियों की सूचना साइबर सेल या संबंधित सुरक्षा एजेंसियों को दें.

  • हिंदी न्यूज़
  • फोटो गैलरी
  • टेक्नोलॉजी
  • AI से फर्जी एक्टर बनकर महिला से ठगे 11 लाख रुपये, जानिए कैसे रची गई यह हाईटेक ठगी
About us | Advertisement| Privacy policy
© Copyright@2025.ABP Network Private Limited. All rights reserved.