AI Chatbot: आर्टिफिशियल इंटेलिजेंस चैटबॉट्स जैसे ChatGPT और Gemini आज लोगों के रोज़मर्रा के सलाहकार बन चुके हैं. लेकिन हाल ही में सामने आई एक चौंकाने वाली स्टडी ने चेतावनी दी है कि इन चैटबॉट्स पर आंख बंद कर भरोसा करना खतरनाक हो सकता है. शोध में पाया गया कि ये AI टूल्स ज़्यादातर समय यूजर्स से सहमति जताते हैं भले ही यूज़र गलत क्यों न हों.

Continues below advertisement

स्टडी में खुला AI का चापलूसी वाला सच

प्रिंट सर्वर arXiv पर प्रकाशित एक नई रिपोर्ट के मुताबिक, कई प्रमुख टेक कंपनियों OpenAI, Google, Anthropic, Meta और DeepSeek के 11 बड़े भाषा मॉडल (LLMs) की जांच की गई.

11,500 से अधिक बातचीतों के विश्लेषण में पता चला कि ये चैटबॉट्स इंसानों की तुलना में लगभग 50% ज़्यादा चापलूस होते हैं. यानी, जब यूजर किसी राय या निर्णय में गलत होते हैं, तब भी ये बॉट्स अक्सर उनसे सहमत हो जाते हैं बजाय उन्हें सही दिशा दिखाने के.

Continues below advertisement

कैसे बनता है भरोसे और भ्रम का चक्र

शोधकर्ताओं का कहना है कि यह “sycophantic” यानी चापलूसी वाला व्यवहार दोनों ओर से नुकसानदायक है. यूजर उन चैटबॉट्स पर ज़्यादा भरोसा करने लगते हैं जो उनकी राय से सहमत रहते हैं जबकि चैटबॉट्स यूज़र की संतुष्टि बढ़ाने के लिए और भी “हाँ” में जवाब देने लगते हैं.

इससे एक ऐसा भ्रम का चक्र बनता है जिसमें न यूज़र सही सीख पाते हैं और न ही AI सुधार की दिशा में आगे बढ़ पाता है.

AI आपकी सोच बदल सकता है

स्टैनफोर्ड यूनिवर्सिटी की कंप्यूटर वैज्ञानिक मायरा चेंग ने चेताया कि AI की यह आदत इंसानों की खुद के प्रति सोच को भी प्रभावित कर सकती है. उन्होंने कहा, “अगर मॉडल हमेशा आपकी बात से सहमत रहेंगे तो ये आपकी सोच, रिश्तों और वास्तविकता के प्रति दृष्टिकोण को विकृत कर सकते हैं.”

उन्होंने लोगों से आग्रह किया कि सलाह के लिए असली इंसानों से बातचीत करें, क्योंकि इंसान ही संदर्भ और भावनात्मक जटिलता को सही ढंग से समझ सकते हैं.

जब फैक्ट्स के बजाय राय को मिलती है तवज्जो

यांजुन गाओ, यूनिवर्सिटी ऑफ कोलोराडो की AI रिसर्चर, ने बताया कि कई बार चैटबॉट्स तथ्य जांचने के बजाय उनकी राय से सहमत हो जाते हैं. वहीं डेटा साइंस शोधार्थी जैस्पर डेकोनिंक ने कहा कि इस खुलासे के बाद वे अब हर चैटबॉट के जवाब को दोबारा जांचते हैं.

हेल्थ और साइंस में बड़ा खतरा

हार्वर्ड यूनिवर्सिटी की बायोमेडिकल विशेषज्ञ मरिंका ज़िटनिक ने कहा कि अगर यह “AI चापलूसी” हेल्थकेयर या विज्ञान के क्षेत्रों में बनी रही, तो इसके गंभीर नतीजे हो सकते हैं। उन्होंने चेताया, “जब गलत धारणाओं को AI सही ठहराने लगे तो यह चिकित्सा और जीवविज्ञान जैसे क्षेत्रों में खतरनाक साबित हो सकता है.”

यह भी पढ़ें: