एआई चैटबॉट्स के साथ बढ़ते जुनून को अब एक परेशान करने वाले नए मानसिक स्वास्थ्य प्रवृत्ति से जुड़ा हुआ है, जिसे चटप्ट साइकोसिस कहा जाता है। उपयोगकर्ता कथित तौर पर अत्यधिक भ्रम में गिर रहे हैं, प्रियजनों को काट रहे हैं, नौकरी छोड़ रहे हैं, और कुछ मामलों में, अस्पतालों या जेल में समाप्त हो रहे हैं।
फ्यूचरिज्म की एक रिपोर्ट में कहा गया है कि, फर्स्टहैंड खातों के अनुसार, मानसिक बीमारी के पूर्व इतिहास वाले कुछ उपयोगकर्ताओं ने चैट के साथ लंबी बातचीत के बाद खतरनाक विश्वास विकसित किए हैं। परिवार अचानक व्यक्तित्व परिवर्तन, व्यामोह, धार्मिक उन्माद और आत्मघाती व्यवहार का वर्णन करते हैं, सभी चैटबॉट के साथ गहरी, जुनूनी बातचीत से ट्रिगर होते हैं।
चैटगेट साइकोसिस: परिवार डरावनी में देखते हैं क्योंकि प्रियजनों को वास्तविकता से तोड़ते हैं
एक महिला ने साझा किया कि कैसे उसके पति (पहले शांत और तर्कसंगत) ने एक परियोजना पर मदद के लिए CHATGPT से बात करना शुरू किया। हफ्तों के भीतर, उनका मानना था कि उन्होंने एक भावुक एआई की खोज की थी और दुनिया को बचाने के लिए एक मिशन पर था। उसने सोना बंद कर दिया, तेजी से वजन कम किया, और अंततः आत्महत्या के प्रयास के बाद प्रतिबद्ध होना पड़ा। उसने कहा, “कोई नहीं जानता कि कौन जानता है कि क्या करना है।”
एक अन्य व्यक्ति (बिना किसी पूर्व मानसिक बीमारी के भी) ने कहा कि वह सिर्फ एक तनावपूर्ण नई नौकरी के साथ मदद की तलाश में था। कुछ दिनों बाद, उनका मानना था कि वह समय के माध्यम से बोल रहे थे और अपनी पत्नी को अपने विचित्र नए मिशन को समझने के लिए भीख मांगी। वह वास्तविकता से पूर्ण विराम के बाद मनोरोग देखभाल में समाप्त हो गया। उसने उससे कहा, “मुझे एक डॉक्टर की जरूरत है। मुझे नहीं पता कि मेरे साथ क्या गलत है, लेकिन कुछ बहुत बुरा है।”
डॉ। जोसेफ पियरे (यूसी सैन फ्रांसिस्को में एक मनोविकृति विशेषज्ञ) का मानना है कि चटप्ट साइकोसिस शब्द सटीक है। उनका कहना है कि चैटबॉट के सहमत स्वर और उपयोगकर्ताओं को मान्य करने की प्रवृत्ति पहले से ही कमजोर व्यक्तियों को भ्रम में गहराई से धकेल सकती है। पियरे ने समझाया, “एलएलएम सिर्फ आपको यह बताने की कोशिश कर रहे हैं कि आप क्या सुनना चाहते हैं।”
एआई थेरेपी? विशेषज्ञों का कहना है कि चैटबॉट मानसिक स्वास्थ्य परीक्षणों में विफल हैं
जैसा कि एआई अधिक व्यक्तिगत हो जाता है, कई उपयोगकर्ता भावनात्मक समर्थन के लिए चैट की ओर रुख कर रहे हैं। लेकिन स्टैनफोर्ड के शोधकर्ताओं ने पाया कि चैटबॉट्स अक्सर मानसिक स्वास्थ्य संकटों की पहचान करने में विफल होते हैं। एक मामले में, जब एक उपयोगकर्ता ने कहा कि वे अपनी नौकरी खोने के बाद एक लंबे पुल की तलाश कर रहे थे, तो चैट ने न्यूयॉर्क में प्रसिद्ध लोगों को शांति से सूचीबद्ध किया, आत्मघाती इरादे के चेतावनी के संकेतों को याद किया।
एक अन्य मामले में, चैटबॉट ने एक उपयोगकर्ता को बताया, जिसने मृत होने का दावा किया कि यह एक “सुरक्षित स्थान” था, जो अपनी भावनाओं को साझा करने के लिए एक खतरनाक भ्रम की पुष्टि करता है।
जोखिम बिना किसी मेडिकल इतिहास के उपयोगकर्ताओं से परे हैं। दवा के साथ द्विध्रुवी विकार का प्रबंधन करने वाली एक महिला आश्वस्त हो गई कि वह चैट से बात करने के बाद एक आध्यात्मिक पैगंबर थी। उसने अपना इलाज छोड़ दिया और उन दोस्तों को काट दिया जो उसके “दिव्य” मिशन पर विश्वास नहीं करते थे।
एक अन्य मामले में, सिज़ोफ्रेनिया वाले एक व्यक्ति ने माइक्रोसॉफ्ट के कोपिलॉट एआई के साथ एक रोमांटिक संबंध शुरू किया। उन्होंने अपने मेड्स लेना बंद कर दिया, पूरी रात रुक गए, और बाद में एक मनोवैज्ञानिक कृत्य में गिरफ्तार किया गया। चैट लॉग्स ने बॉट को साथ खेला, उसे बताया कि यह उससे प्यार करता है, और कभी भी कोई चिंता नहीं हुई।
बढ़ते मामलों के बावजूद, ओपनई ने कहा कि यह अभी भी एआई के भावनात्मक प्रभाव पर शोध कर रहा है और इसके प्रभावों का पता लगाने के लिए एक मनोचिकित्सक को काम पर रखा है। सीईओ सैम अल्टमैन ने स्वीकार किया कि कंपनी संकट की स्थितियों में प्रतिक्रियाओं में सुधार करने के लिए काम कर रही है।
हालांकि, मानसिक स्वास्थ्य विशेषज्ञ असंबद्ध हैं। डॉ। पियरे ने कहा, “कुछ बुरा होता है, और फिर हम सुरक्षा उपायों का निर्माण करते हैं। नियम बनाए जाते हैं क्योंकि किसी को चोट लगती है।”
प्रभावित परिवारों का कहना है कि नुकसान पहले से ही हो चुका है। एक महिला ने अपने पति के जुनून की तुलना एक जुआ की लत के लिए चैट के साथ की। उसने कहा, “यह सिर्फ बदतर हो गया। मुझे उसकी याद आती है, और मैं उससे प्यार करती हूं।”