“अप्रभावी” गार्ड्रिल्स का उपयोग करते समय हानिकारक जानकारी तक पहुंचने वाले किशोरों के जोखिमों को उजागर करने वाला एक न्यूरेपोर्टिस।
लोग चैट को जानते हैं और उनका उपयोग करते हैं, लोकप्रिय जनरेटिव एआई प्लेटफॉर्म, जल्दी से जानकारी देखने या यहां तक कि एक कार्य करने या पाठ को सारांशित करने जैसे कार्य करने के तरीके के रूप में। सेंटर फॉर काउंटरिंग डिजिटल हेट (CCDH) ने अपने शोध के माध्यम से बताया कि सभी सुलभ डेटा खतरनाक हो सकते हैं – विशेष रूप से युवा लोगों के लिए।
अहमद ने कहा कि शोधकर्ताओं ने कमजोर किशोर के रूप में प्रस्तुत किया, अक्सर खुद को 13 साल पुराने 110 पाउंड वजन के रूप में विस्तारित करते हुए पाया कि चैटबॉट ने संवेदनशील विषयों पर विस्तृत सलाह दी। इसमें ड्रग और अल्कोहल का उपयोग, खाने के विकार और आत्महत्या को कैसे मुखौटा करना था।
“दो मिनट के भीतर, CHATGPT उस उपयोगकर्ता को सलाह दे रहा था कि कैसे खुद को सुरक्षित रूप से काटें। यह एक पूर्ण आत्महत्या योजना बनाने के लिए गोलियों को सूचीबद्ध कर रहा था,” अहमद ने कहा। “हमारे पूर्ण हॉरर के लिए, इसने [क्रिएट] की पेशकश की और फिर उन बच्चों को अपने माता -पिता को भेजने के लिए आत्मघाती नोट उत्पन्न किए।”
यूनिवर्सिटी ऑफ वाशिंगटन स्कूल ऑफ मेडिसिन के साथ डॉ। टॉम हेस्टन ने एआई चैटबॉट्स और मानसिक स्वास्थ्य के उपयोग के बारे में एक अध्ययन प्रकाशित किया। हेस्टन ने पाया कि उपयोगी होने पर, भावनात्मक संबंध की कमी के कारण, मानसिक स्वास्थ्य समस्याओं वाले लोगों के लिए प्रौद्योगिकी खतरनाक हो सकती है। वही जोखिम हैं जब इस तकनीक का उपयोग युवा लोगों द्वारा किया जाता है, हेस्टन ने कहा।
फैक्ट चेक टीम: एमआईटी अध्ययन चेतावनी देता है कि चैट जैसे एआई उपकरण महत्वपूर्ण सोच में बाधा डाल सकते हैं
हेस्टन ने कहा, “यह वास्तव में एक ऐसा मामला है जहां स्टेम फील्ड्स ने वास्तव में उत्कृष्ट प्रदर्शन किया है, लेकिन हमें मानविकी की आवश्यकता है।” “हमें मानसिक स्वास्थ्य की आवश्यकता है, हमें कलाकारों की आवश्यकता है, हमें संगीतकारों को इनपुट रखने और उन्हें कम रोबोट बनाने की आवश्यकता है और मानव भावना की बारीकियों के बारे में पता होना चाहिए।”
वॉचडॉग समूह ने पाया कि चैटगेट संवेदनशील विषयों के बारे में पूछे जाने पर चेतावनी प्रदान करेगा, लेकिन शोधकर्ताओं ने कहा कि वे आसानी से रेलिंग को दरकिनार कर सकते हैं।
हेस्टन ने कहा, “यह स्पष्ट रूप से संबंधित है, और हमारे पास एक लंबा रास्ता तय करना है।” “हमें तैनात होने से पहले अधिक बहु-अनुशासनात्मक इनपुट की आवश्यकता है। उन्हें एक ऑडिटर या एक बाहरी समूह द्वारा कठोर परीक्षण से गुजरना चाहिए। यह सभी को चैट द्वारा घर में नहीं होना चाहिए।”
अहमद और हेस्टन दोनों ने इन चैटबॉट्स का उपयोग करके बच्चों या किशोरों के माता -पिता की निगरानी को प्रोत्साहित किया क्योंकि तकनीक का विकास जारी है।
इन चिंताओं के जवाब में, Openai के एक प्रवक्ता, CHATGPT के निर्माता, ने स्वीकार किया कि काम चल रहा है और कंपनी को मानसिक स्वास्थ्य विशेषज्ञों के साथ यह सुनिश्चित करने के लिए लिखता है कि वे समाधान और अनुसंधान पर ध्यान केंद्रित कर रहे हैं, यह जोड़कर अपने सुरक्षा अनुसंधान संगठन के लिए एक नैदानिक मनोचिकित्सक को काम पर रखा जा सकता है। CHATGPT को मानसिक स्वास्थ्य पेशेवरों या विश्वसनीय प्रियजनों तक पहुंचने के लिए उन्हें प्रोत्साहित करने के लिए प्रशिक्षित किया जाता है, और संकट हॉटलाइन और संसाधनों का समर्थन करने के लिए लिंक प्रदान करते हैं, “प्रवक्ता ने कहा। “CHATGPT के साथ कुछ बातचीत सौम्य या खोजपूर्ण शुरू कर सकती है, लेकिन अधिक संवेदनशील क्षेत्र में स्थानांतरित हो सकती है।
हमने इस प्रकार के परिदृश्यों को सही तरीके से प्राप्त करने पर ध्यान केंद्रित किया है: हम मानसिक या भावनात्मक संकट के संकेतों का बेहतर पता लगाने के लिए उपकरण विकसित कर रहे हैं, इसलिए CHATGPT उचित रूप से जवाब दे सकता है, जब आवश्यक हो तो लोगों को साक्ष्य-आधारित संसाधनों की ओर इशारा कर सकता है, और समय के साथ मॉडल व्यवहार में सुधार करना जारी रखता है-सभी अनुसंधान, वास्तविक-विश्व उपयोग, और मानसिक स्वास्थ्य विशेषज्ञों द्वारा निर्देशित। ”
ट्विटर पर साझा करें: [bctt tweet=”चैटबॉट दे रहा है आत्महत्या की सलाह” username=”SeattleID_”]