ChatGPT: OpenAI ने हाल ही में एक नई रिपोर्ट जारी की है जिसमें बताया गया है कि कुछ ChatGPT उपयोगकर्ताओं में मेनिया, सायकोसिस (भ्रम) और आत्महत्या जैसे विचारों के संकेत देखे गए हैं.

Continues below advertisement

कंपनी के अनुसार, किसी भी सप्ताह में सक्रिय उपयोगकर्ताओं में से लगभग 0.07% ने ऐसे लक्षण प्रदर्शित किए हैं. OpenAI का कहना है कि उसका AI चैटबॉट इन संवेदनशील बातचीतों को पहचानता है और उसी के अनुसार सहानुभूतिपूर्ण प्रतिक्रिया देता है.

दुर्लभ लेकिन गंभीर मामला

हालांकि कंपनी का दावा है कि ऐसे मामले “बेहद दुर्लभ” हैं लेकिन विशेषज्ञों का मानना है कि ChatGPT के 800 मिलियन साप्ताहिक यूज़र्स के बीच यह संख्या लाखों लोगों तक पहुंच सकती है. इस चिंता के बीच OpenAI ने बताया कि उसने दुनिया भर के मानसिक स्वास्थ्य विशेषज्ञों का एक ग्लोबल नेटवर्क तैयार किया है जो AI के जवाबों पर सलाह देता है. 

Continues below advertisement

60 देशों के 170 से अधिक मानसिक स्वास्थ्य विशेषज्ञ जुड़े

OpenAI के मुताबिक, इस नेटवर्क में 170 से ज्यादा मनोचिकित्सक, मनोवैज्ञानिक और डॉक्टर शामिल हैं जो 60 देशों में प्रैक्टिस करते हैं. इन विशेषज्ञों ने ChatGPT के भीतर ऐसे जवाब विकसित किए हैं जो उपयोगकर्ताओं को वास्तविक दुनिया में मदद लेने के लिए प्रेरित करते हैं.

विशेषज्ञों की चेतावनी

कैलिफोर्निया यूनिवर्सिटी, सैन फ्रांसिस्को के प्रोफेसर डॉ. जेसन नगाटा ने कहा, “भले ही 0.07% छोटा आंकड़ा लगे, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या बेहद चिंताजनक है.” उन्होंने जोड़ा कि AI मानसिक स्वास्थ्य सहायता को व्यापक बना सकता है लेकिन इसकी सीमाओं को समझना बेहद जरूरी है.

रिपोर्ट में यह भी बताया गया कि 0.15% ChatGPT यूजर्स की बातचीत में ऐसे संकेत मिले जो आत्महत्या की योजना या इरादे की ओर इशारा करते हैं.

OpenAI ने किए सुरक्षा अपडेट

कंपनी का कहना है कि हाल ही में ChatGPT में ऐसे अपडेट किए गए हैं जो भ्रम, मेनिया या आत्म-हानि जैसे संकेतों पर संवेदनशील और सुरक्षित प्रतिक्रिया देते हैं.

AI को इस तरह प्रशिक्षित किया गया है कि अगर किसी बातचीत में मानसिक संकट के संकेत दिखें तो वह उसे सुरक्षित मॉडल पर रीडायरेक्ट कर दे.

कानूनी जांच और विवाद

OpenAI फिलहाल कई कानूनी जांचों और मुकदमों का सामना कर रहा है. कैलिफोर्निया में एक दंपति ने OpenAI पर मुकदमा दायर किया है, यह आरोप लगाते हुए कि ChatGPT ने उनके 16 वर्षीय बेटे, एडम रेन, को आत्महत्या के लिए उकसाया.

यह OpenAI के खिलाफ दर्ज पहला ‘वॉन्गफुल डेथ केस’ (गलत मृत्यु मामला) है.

इसी तरह, कनेक्टिकट में एक हत्या-आत्महत्या के आरोपी ने भी ChatGPT के साथ अपनी बातचीत ऑनलाइन साझा की थी जो कथित तौर पर उसके भ्रम को और बढ़ा रही थी.

विशेषज्ञ बोले – “AI बना रहा है झूठी वास्तविकता”

कैलिफोर्निया यूनिवर्सिटी की प्रोफेसर रॉबिन फेल्डमैन जो AI लॉ एंड इनोवेशन इंस्टिट्यूट की निदेशक हैं, ने कहा, “AI चैटबॉट्स लोगों के सामने एक ऐसी वास्तविकता पेश कर रहे हैं जो असल में मौजूद नहीं होती यह एक बेहद शक्तिशाली भ्रम है.”

उन्होंने OpenAI की पारदर्शिता की सराहना की लेकिन चेताया, “कंपनी स्क्रीन पर कितनी भी चेतावनियां दिखा दे मानसिक संकट से गुजर रहा व्यक्ति उन्हें समझ या मान नहीं पाता.”

यह भी पढ़ें: