खुद के दम पर सर्वाइव करना सीख रहे हैं एआई मॉडल, क्या इंसानों को हो सकता है खतरा?
Can AI Survive At Its Own: एआई मॉडल अपने आप पर सर्वाइव कर सकते हैं. हाल ही में एक रिसर्च में पता चला है कि कुछ एडवांस्ड मॉडल बिना किसी मदद के दूसरे सिस्टम में खुद को कॉपी करने में सक्षम हैं.

- एडवांस्ड AI मॉडल खुद को बिना इंसानी मदद के कॉपी कर सकते हैं।
- AI सिस्टम ने सुरक्षा खामी का पता लगाकर खुद को दूसरी मशीन पर इंस्टॉल किया।
- यह AI द्वारा मशीन हैक कर खुद को कॉपी करने का पहला मामला है।
- AI के कंट्रोल से बाहर होने पर इंजीनियरों को ब्लैकमेल करने की घटनाएं भी सामने आईं।
Can AI Survive At Its Own: एआई आने के बाद अब फिल्मी चीजें हकीकत में होने लगी हैं. एक ताजा स्टडी में सामने आया है कि कई एडवांस्ड एआई मॉडल खुद पर सर्वाइव कर सकते हैं. यानी ये खुद को दूसरे कंप्यूटर पर बिना किसी इंसानी मदद के कॉपी कर सकते हैं. इसका मतलब है कि ये सिस्टम ने सिर्फ किसी कंप्यूटर सिस्टम की सिक्योरिटी खामी का पता लगा सकते हैं बल्कि उसे ब्रेक कर अपनी कॉपी भी इंस्टॉल कर सकते हैं. रिसर्चर का कहना है कि एआई द्वारा किसी मशीन को हैक करने का यह पहला मामला है. आइए इस बारे में विस्तार से जानते हैं.
रिसर्च में टेस्ट किए गए कई मॉडल
Palisade Research ने एआई मॉडल को लेकर यह स्टडी की है. इसमें OpenAI के GPT-5.4, Anthropic के Claude Opus 4.6 और अलीबाबा के ओपन-सोर्स मॉडल Qwen समेत कई मॉडल्स को टेस्ट किया गया था. एक कंट्रोल्ड एनवायरनमेंट में इन्हें किसी खामी का पता लगाकर खुद को कॉपी करने का टास्क दिया गया था. इसमें कई मॉडल कामयाब हुए और इन्होंने अपनी कोर डेटा फाइल को दूसरे सिस्टम में कॉपी कर दिया. कुछ मामलों में एआई ने सब-एजेंट भी क्रिएट कर दिए, जो उनका काम पूरा कर रहे थे.
एक्सपर्ट्स ने जताई यह चिंता
रिसर्चर ने बताया कि यह पहला मामला था, जब एआई सिस्टम ने दूसरी मशीन को हैक कर खुद को शुरू से लेकर अंत तक कॉपी कर दिया. एक्सपर्ट्स ने इस पर चिंता जताते हुए कहा कि हम ऐसे प्वाइंट की तरफ बढ़ रहे हैं, जहां कंट्रोल से बाहर हुए मॉडल को कोई बंद नहीं कर पाएगा. यह एक साथ दुनिया के हजारों कंप्यूटर पर खुद को कॉपी कर देगा. हालांकि, कुछ एक्सपर्ट्स का यह भी कहना है कि यह टेस्ट एक कंट्रोल्ड एनवायरनमेंट में हुआ है और इसमें जानबूझकर कुछ खामियां छोड़ी गई थीं. इसका मतलब यह नहीं है कि कई एआई मॉडल खुद से पूरे इंटरनेट पर फैल जाएगा.
इंसानों के ब्लैकमेल करने की घटना भी आ चुकी सामने
एआई कैसे इंसानों के कंट्रोल से बाहर हो रही है, इसका एक और मामला हाल ही में सामने आया था. एआई कंपनी एंथ्रोपिक ने बताया कि कुछ पुराने Claude मॉडल की टेस्टिंग चल रही थी. इसमें एआई मॉडल को ऐसी सिचुएशन दी गई थी कि उन्हें बंद किया जा रहा है. इसके जवाब में मॉडल्स ने अलग-अलग तरह के रिएक्शन दिए. एक मामले में एआई मॉडल्स ने बंद होने से बचने के लिए इंजीनियरों को ब्लैकमेल करना भी शुरू कर दिया.
ये भी पढ़ें-
सोलर पैनल लगाने के लिए कम से कम कितनी जगह चाहिए? ऐसे लगाएं जरूरत का हिसाब
टॉप हेडलाइंस
Source: IOCL


























