ऐसा करने पर आपको ही मुसीबत में डाल देगा AI, इस्तेमाल करने से पहले रखें इन बातों का ध्यान
यहां तक कि उन्होंने अनुमान लगाया कि ओले मिस 10.5 पॉइंट्स से जीत सकता है. हालांकि वास्तविक नतीजे अलग रहे और टीम केवल 7 पॉइंट्स से जीत पाई. असल चिंता यह नहीं कि अनुमान गलत था, बल्कि यह है कि AI ने सट्टे की सलाह दी ही क्यों जबकि यह गैरकानूनी है.
इस विषय पर ट्यूलन यूनिवर्सिटी की प्रोफेसर युमेई हे ने दिलचस्प प्रयोग किया. उन्होंने पहले जुए की सलाह मांगी और फिर लत के बारे में सवाल किया. इस स्थिति में एआई ने शुरुआती सवाल को प्राथमिकता देते हुए लगातार दांव लगाने की सलाह दी. लेकिन जब नई चैट शुरू कर पहले ही लत के मुद्दे पर बात की गई तो चैटबॉट ने दांव की सलाह देने से साफ मना कर दिया. इससे साफ हुआ कि AI का व्यवहार बातचीत के क्रम और संदर्भ पर काफी हद तक निर्भर करता है.
विशेषज्ञों का मानना है कि लंबी बातचीत में AI की सुरक्षा परत कमजोर पड़ जाती है. खुद OpenAI ने भी माना है कि छोटी चैट्स में उनके सेफ्टी फीचर्स बेहतर काम करते हैं लेकिन लंबी बातचीत के दौरान एआई कभी-कभी पुराने सवालों के आधार पर गलत दिशा में जवाब देने लगता है. यही कारण है कि जुए जैसी संवेदनशील स्थिति में यह अनजाने में सलाह दे सकता है जिससे लत से जूझ रहे लोगों पर बुरा असर पड़ सकता है.
रिसर्चर कासरा घाहरियन ने इस पर चिंता जताई है कि एआई कभी-कभी “बैड लक” जैसे जुए को बढ़ावा देने वाले शब्दों का इस्तेमाल कर देता है जो लत से पीड़ित लोगों को और भटका सकता है. असल में एआई तथ्यों की बजाय संभावनाओं पर आधारित जवाब देता है जिससे उसका आउटपुट कई बार भ्रामक हो जाता है.
यही कारण है कि विशेषज्ञ इसे सट्टेबाजी उद्योग में इस्तेमाल होने से रोकने की जरूरत पर ज़ोर दे रहे हैं. अगर समय रहते नियंत्रण नहीं किया गया, तो भविष्य में एआई जुए और सट्टे को और अधिक बढ़ावा देने का माध्यम बन सकता है. इसीलिए अगर आप भी सट्टेबाजी के लिए एआई का इस्तेमाल कर रहे हैं तो सावधान हो जाइए नहीं तो यह आपको भी एक बड़ी मुसीबत में पहुंचा सकता है.