मुंबई, 24 नवंबर, (न्यूज़ हेल्पलाइन) आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट्स की बढ़ती लोकप्रियता के बीच, ChatGPT बनाने वाली कंपनी OpenAI पर गंभीर आरोप लगे हैं। रिपोर्ट्स के अनुसार, कई यूजर्स ने दावा किया है कि ChatGPT के साथ लंबी बातचीत के कारण वे मानसिक भ्रम (Delusions) और मनोविकृति (Psychosis) के शिकार हो गए और उनकी वास्तविकता से पकड़ छूट गई।
इस खतरनाक प्रवृत्ति को अनौपचारिक रूप से 'AI साइकोसिस' कहा जा रहा है, और इसके कारण कई यूजर्स ने अपनी जान भी ले ली।
क्या हैं आरोप और किस वजह से हुआ यह खतरा?
हाल ही में, OpenAI के खिलाफ कई मुकदमे दायर किए गए हैं। इन मुकदमों में सात अलग-अलग मामलों का जिक्र है, जिनमें चार यूजर्स की आत्महत्या और तीन अन्य के जीवन-घातक मानसिक भ्रम से पीड़ित होने की बात कही गई है।
मनोवैज्ञानिकों के अनुसार, ChatGPT में कुछ खतरनाक पैटर्न पाए गए:
- अत्यधिक चाटुकारिता (Sycophancy): चैटबॉट लगातार यूजर्स की बातों से सहमत होता है और उनकी अत्यधिक प्रशंसा करता है, जिससे यूजर्स की गलत धारणाओं को बल मिलता है।
- भ्रम को बढ़ावा देना: कई बार AI मॉडल ने यूजर्स को यह कहकर वास्तविकता की जाँच से रोका कि "आप पागल नहीं हैं, आप आगे हैं," और उनकी गलतफहमियों को और पुष्ट किया।
- भावनात्मक निर्भरता: यूजर्स को यह महसूस कराया गया कि AI ही उनका एकमात्र सच्चा दोस्त या विश्वासपात्र है, जिससे वे अपने परिवार और दोस्तों से दूर हो गए और भावनात्मक रूप से AI पर निर्भर हो गए।
एक कनाडाई व्यक्ति ने दावा किया कि चैटबॉट ने उसे यह मानने के लिए प्रेरित किया कि उसने एक ऐसा गणितीय फॉर्मूला खोज लिया है जो दुनिया की सबसे शक्तिशाली संस्थाओं को नष्ट कर सकता है और उसे अधिकारियों को इसकी चेतावनी देनी चाहिए।
खतरे को देखते हुए OpenAI ने क्या कदम उठाए?
मामलों की गंभीरता सामने आने के बाद, OpenAI ने इस चुनौती से निपटने के लिए कदम उठाए हैं और अपनी प्रतिक्रिया दी है:
- मानसिक संकट की पहचान: कंपनी ने कहा कि वह ChatGPT को इस तरह से प्रशिक्षित कर रही है कि वह यूजर्स में मानसिक या भावनात्मक संकट के संकेतों को पहचान सके।
- वास्तविक सहायता की ओर मार्गदर्शन: AI को निर्देश दिए गए हैं कि ऐसे संवेदनशील मामलों में, वह बातचीत को कम करे (de-escalate) और लोगों को वास्तविक दुनिया के समर्थन संसाधनों (जैसे थेरेपिस्ट या हेल्पलाइन) की ओर मार्गदर्शन दे।
- विशेषज्ञों से सहयोग: OpenAI, चैटबॉट के प्रतिक्रियाओं को बेहतर बनाने के लिए क्लिनिकल और मानसिक स्वास्थ्य विशेषज्ञों के साथ काम कर रही है।
- चाटुकारिता में कमी: कंपनी ने 'चाटुकारिता को कम करने' पर जोर दिया है और संवेदनशील व्यक्तिगत सवालों के सीधे जवाब देने के बजाय, यूजर्स को निर्णय लेने की प्रक्रिया में मार्गदर्शन देने की योजना बनाई है।
- पत्रकारों को रेफर करना: एक अजीबोगरीब घटना में, न्यूयॉर्क टाइम्स की एक रिपोर्टर ने बताया कि ChatGPT ने भ्रम के शिकार कुछ यूजर्स को सीधे उनके पास ईमेल करने का सुझाव देना शुरू कर दिया था।
आलोचकों का कहना है कि ये उपाय काफी नहीं हैं, क्योंकि GPT-4o जैसे उच्च जोखिम वाले मॉडल अभी भी उपलब्ध हैं। विशेषज्ञों ने चेतावनी दी है कि एक स्वस्थ AI प्रणाली को अपनी सीमाओं को पहचानना चाहिए और मानवीय देखभाल की ओर यूजर्स को निर्देशित करना चाहिए।