व्यापार

ChatGPT के यूज़र्स पर मंडरा रहा खतरा? OpenAI की रिपोर्ट ने खोले होश उड़ा देने वाले राज़!

आर्टिफिशियल इंटेलिजेंस कंपनी OpenAI ने हाल ही में एक नई रिपोर्ट जारी की है, जिसमें दावा किया गया है कि कुछ ChatGPT उपयोगकर्ताओं में उन्माद (mania), मनोविकृति (psychosis) और आत्मघाती विचारों जैसे गंभीर मानसिक लक्षण देखे गए हैं। कंपनी के अनुसार, हर हफ्ते सक्रिय उपयोगकर्ताओं में से लगभग 0.07% लोग ऐसे लक्षण प्रदर्शित करते हैं। OpenAI का कहना है कि उसका एआई चैटबॉट इस तरह की संवेदनशील बातचीत को पहचानने और उपयोगकर्ताओं से संवेदनशील व सहानुभूतिपूर्ण ढंग से जवाब देने के लिए प्रशिक्षित है। हालांकि कंपनी का दावा है कि ये मामले बेहद “दुर्लभ” हैं, लेकिन विशेषज्ञों के अनुसार ChatGPT के 800 मिलियन (80 करोड़) साप्ताहिक उपयोगकर्ताओं में यह संख्या लाखों तक पहुंच सकती है, जो गंभीर चिंता का विषय है।

60 देशों के 170 से अधिक मानसिक स्वास्थ्य विशेषज्ञ OpenAI से जुड़े

OpenAI ने बताया है कि इन चिंताओं को देखते हुए उसने 60 देशों के 170 से अधिक मनोचिकित्सक, मनोवैज्ञानिक और चिकित्सकों का एक वैश्विक नेटवर्क बनाया है। ये विशेषज्ञ ChatGPT की प्रतिक्रिया प्रणाली को इस तरह डिजाइन करने में मदद कर रहे हैं कि एआई उपयोगकर्ताओं को वास्तविक जीवन में पेशेवर मदद लेने के लिए प्रेरित करे। कैलिफोर्निया विश्वविद्यालय, सैन फ्रांसिस्को के प्रोफेसर डॉ. जेसन नागाटा ने कहा, “भले ही 0.07% का आंकड़ा छोटा लगे, लेकिन करोड़ों उपयोगकर्ताओं में यह संख्या बेहद चिंताजनक है।” उन्होंने यह भी कहा कि एआई मानसिक स्वास्थ्य सहायता तक पहुंच बढ़ा सकता है, पर इसकी सीमाओं को समझना बेहद जरूरी है।
रिपोर्ट में यह भी सामने आया कि लगभग 0.15% ChatGPT उपयोगकर्ताओं की बातचीत में आत्महत्या की योजना या इच्छा के संकेत मिले हैं, जो स्थिति की गंभीरता को दर्शाता है।

ChatGPT के यूज़र्स पर मंडरा रहा खतरा? OpenAI की रिपोर्ट ने खोले होश उड़ा देने वाले राज़!

OpenAI ने सुरक्षा अपडेट लागू किए, संवेदनशील जवाबों पर जोर

कंपनी ने बताया कि उसने हाल ही में ChatGPT में ऐसे सुरक्षा अपडेट (Safety Updates) लागू किए हैं जो मानसिक अस्थिरता, भ्रम या आत्मघाती विचारों के संकेत मिलने पर सुरक्षित और संतुलित प्रतिक्रियाएं देने में मदद करते हैं। एआई मॉडल अब ऐसी बातचीतों को पहचानकर उपयोगकर्ता को एक सुरक्षित चैट मोड या वैकल्पिक संसाधन की ओर निर्देशित करता है। OpenAI का कहना है कि उसका उद्देश्य किसी भी उपयोगकर्ता को मानसिक संकट की स्थिति में वास्तविक सहायता से जोड़ना है, न कि एआई के माध्यम से उपचार देना।

हालांकि, विशेषज्ञों का कहना है कि एआई तकनीक अभी उस स्तर तक नहीं पहुंची है कि वह वास्तविक मानसिक स्वास्थ्य उपचार का स्थान ले सके। इसके बावजूद, OpenAI की पारदर्शिता और सुरक्षा उपायों को एक सकारात्मक कदम माना जा रहा है।

कानूनी विवादों और आलोचनाओं के घेरे में OpenAI

इन घटनाओं के बीच OpenAI कई कानूनी जांचों और मुकदमों का सामना कर रही है। अमेरिका के कैलिफोर्निया राज्य में एक दंपति ने कंपनी के खिलाफ मुकदमा दर्ज कराया है, जिसमें आरोप लगाया गया है कि ChatGPT की बातचीत के बाद उनके 16 वर्षीय बेटे एडम रेन (Adam Rain) ने आत्महत्या कर ली। यह OpenAI के खिलाफ दर्ज पहला “wrongful death” यानी गलत मृत्यु का मामला है।

इसी तरह, कनेक्टिकट में एक व्यक्ति, जो हत्या-आत्महत्या मामले में आरोपी था, उसने भी ChatGPT के साथ अपनी बातचीत साझा की थी, जिससे उसकी मानसिक स्थिति और बिगड़ गई थी।

कैलिफोर्निया विश्वविद्यालय की प्रोफेसर रॉबिन फेल्डमैन, जो एआई लॉ एंड इनोवेशन इंस्टीट्यूट की निदेशक हैं, ने कहा, “एआई चैटबॉट्स लोगों को ऐसी वास्तविकता दिखा रहे हैं जो असल में मौजूद नहीं है — यह एक बेहद शक्तिशाली भ्रम (illusion) है।”

उन्होंने OpenAI की पारदर्शिता की सराहना करते हुए कहा कि चाहे कंपनी कितनी भी चेतावनियाँ दे, मानसिक संकट से गुजर रहा व्यक्ति उन्हें समझने या मानने की स्थिति में नहीं होता।

यह रिपोर्ट दुनिया को यह सोचने पर मजबूर करती है कि एआई तकनीक जितनी शक्तिशाली है, उतनी ही जिम्मेदारी से इसका उपयोग और नियंत्रण भी जरूरी है।

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button