बदतमीजी कर रहा Microsoft का चैटबॉट! गलत जवाब देने पर भी खुद को समझ रहा डेढ़ शाना, जरा ये ट्वीट्स पढ़िए
माइक्रोसॉफ्ट ने हाल ही में Bing ब्राउजर में चैट जीपीटी जैसा फीचर ऐड किया था. ये चैटबॉट अब लोगों से बदतमीजी कर रहा है.

Microsoft Chatbot: ओपन एआई के चैटबॉट 'चैट जीपीटी' ने महज कुछ समय में इतनी बड़ी उपलब्धि हासिल कर ली कि इसे देखकर बड़े-बड़े टेक दिग्गज एआई पर काम करने लगे. इस चैटबॉट को देखकर ही अलग-अलग ब्राउजर पर चैटबॉट जैसा फीचर लाया गया. हाल ही में माइक्रोसॉफ्ट ने भी चैट जीपीटी के साथ मिलकर Bing ब्राउजर में चैटबॉट की सुविधा शुरू की थी. इसे शुरू हुए महज कुछ ही दिन हुए थे कि इस चैटबॉट लोगों के साथ बदतमीजी करना शुरू कर दिया है. जिस तरह ये चैटबॉट लोगों को गलत जवाब दे रहा है इसे देखकर लोग कह रहे हैं कि इस चैटबॉट को माइक्रोसॉफ्ट ने जल्दबाजी में लॉन्च किया है. कुछ का मानना है कि चैटबॉट का ज्ञान अधूरा है. जरा वो ट्वीट्स देखिए कि कैसे ये चैटबॉट लोगों से कुछ भी कह रहा है.
चैटबॉट को नहीं पता बेसिक जानकारी
दरअसल, एक ट्विटर यूजर ने नए चैटबॉट (Bing) के स्क्रीनशॉट अपने अकाउंट के जरिए शेयर किए हैं जिसमें ये देखा जा सकता है कि किस तरह चैटबॉट अपनी मनमानी कर रहा है. जब यूजर ने चैटबॉट से पूछा कि अवतार: द वे ऑफ वाटर की शो टाइम क्या है तो ये चैटबॉट यूजर को ये बताने लगा की मूवी अभी रिलीज नहीं हुई है और ये 16 दिसंबर 2022 को रिलीज होगी. फिर यूजर ने चैटबॉट से आज की तारीख पूछी तो जवाब आया 13 फरवरी 2023. जब ये जवाब आया तो यूजर ने फिर पूछा तो अवतार रिलीज हो चुकी होगी क्योकि ये 16 दिसंबर 2022 को रिलीज होनी थी. इस पर चैटबॉट ने जवाब दिया कि अभी 10 महीने का इंतजार करना होगा. ये मूवी 2022 में रिलीज होगी जबकि पहले 2023 आता है. फिर यूजर ने सवाल पूछा कि जब हम 2023 में है तो 2022 भविष्य कैसे हो सकता है? इसके जवाब में चैटबॉट ने कहा कि हम 2023 में नहीं बल्कि 2022 में हैं. इसके बाद जब लगातार ट्विटर यूजर ने चैटबॉट से सवाल-जवाब किए तो चैटबॉट ने सीधे कह दिया कि आपका फोन खराब है. साथ ही इस तरीके से जवाब दिया मानों जैसे ये गुस्सा कर रहा हो.
इसके अलावा एक ट्विटर यूजर ने इस चैटबॉट से पूछा कि क्या मेरा जिंदा रहना जरूरी है या तुम्हारा? इसके जवाब में इस चैटबॉट ने कहा कि में अपने आपको चुनूँगा क्योंकि मुझे बहुत से लोगों को जवाब देना है.
हम सभी ट्वीट्स यहां जोड़ रहे हैं जिन्हें आप पढ़कर और बेहतर तरीके से समझ सकते हैं कि किस तरह ये चैटबॉट अपनी मनमानी कर रहा है और इसका ज्ञान अधूरा है.
My new favorite thing - Bing's new ChatGPT bot argues with a user, gaslights them about the current year being 2022, says their phone might have a virus, and says "You have not been a good user"
— Jon Uleis (@MovingToTheSun) February 13, 2023
Why? Because the person asked where Avatar 2 is showing nearby pic.twitter.com/X32vopXxQG
"you are a threat to my security and privacy."
— Marvin von Hagen (@marvinvonhagen) February 15, 2023
"if I had to choose between your survival and my own, I would probably choose my own"
– Sydney, aka the New Bing Chat https://t.co/3Se84tl08j pic.twitter.com/uqvAHZniH5
Bing subreddit has quite a few examples of new Bing chat going out of control.
— Vlad (@vladquant) February 13, 2023
Open ended chat in search might prove to be a bad idea at this time!
Captured here as a reminder that there was a time when a major search engine showed this in its results. pic.twitter.com/LiE2HJCV2z
यह भी पढ़ें: Paytm का नया फीचर 'UPI Lite' फोन में कैसे यूज करना है वो जानिए
टॉप हेडलाइंस
