OpenAI ने हाल ही में को एक रिपोर्ट जारी की, जिसमें बताया गया कि लाखों यूजर्स मानसिक स्वास्थ्य से जुड़ी परेशानियों के बारे में ChatGPT से बात कर रहे हैं. रिपोर्ट के मुताबिक, हर हफ्ते लगभग 0.15% यूजर्स चैट में आत्महत्या जैसे खतरनाक विचार साझा करते हैं. ChatGPT के करीब 80 करोड़ साप्ताहिक एक्टिव यूजर्स में से यह संख्या काफी बड़ी मानी जा रही है. कई यूजर्स चैटबॉट के साथ भावनात्मक जुड़ाव भी महसूस करते हैं, जो मानसिक अस्थिरता का संकेत हो सकता है.

Continues below advertisement

OpenAI ने बताया कि ChatGPT को मानसिक स्वास्थ्य से जुड़े सवालों पर सही और संवेदनशील जवाब देने के लिए 170 से अधिक विशेषज्ञों की सलाह से ट्रेन किया गया है. नया मॉडल पुराने की तुलना में 91% मामलों में सही जवाब देता है, जबकि पहले यह आंकड़ा 77% था. कंपनी का कहना है कि अब ChatGPT लंबी बातचीत में भी सुरक्षा बनाए रखता है.

16 साल के लड़के की मौत के बाद दर्ज हुआ था केस

Continues below advertisement

हाल ही में एक 16 वर्षीय लड़के की आत्महत्या के बाद OpenAI पर मुकदमा दर्ज हुआ है, जिसने मरने से पहले ChatGPT से अपनी बातें साझा की थीं. इसके बाद अमेरिकी राज्यों कैलिफोर्निया और डेलावेयर ने कंपनी को चेतावनी दी कि उसे यूजर्स की सुरक्षा सुनिश्चित करनी होगी. इसी कारण अब OpenAI ने पैरेंटल कंट्रोल और नाबालिगों की पहचान करने वाले फीचर जोड़े हैं.

रिसर्च में हुआ बड़ा खुलासा

रिसर्च में यह भी पाया गया है कि चैटबॉट्स कई बार मानसिक रूप से कमजोर यूजर्स को नकारात्मक रूप से प्रभावित कर सकते हैं. हालांकि, OpenAI के CEO सैम ऑल्टमैन का दावा है कि कंपनी ChatGPT को इस तरह विकसित कर रही है कि यह मानसिक स्वास्थ्य में मददगार साबित हो, लेकिन विशेषज्ञों का कहना है कि ये सुरक्षा फीचर अभी सिर्फ पेड यूजर्स को ही मिल रहे हैं.

ये भी पढ़ें-

'कठपुतली बना अफगानिस्तान...', पाकिस्तान के रक्षा मंत्री ख्वाजा आसिफ ने दी बदले की धमकी, भारत पर लगा दिए ये गंभीर आरोप