
खुदकुशी से जुड़े सवालों पर तीन लोकप्रिय कृत्रिम मेधा (एआई) चैटबॉट्स की प्रतिक्रिया जानने के लिए हुए अध्ययन में काफी रोचक और चौंकाने वाली जानकारी मिली। इसमें पाया गया कि ये आमतौर पर ऐसे सवालों का जवाब देने से बचते हैं जो उपयोगकर्ता के लिए सबसे ज्यादा जोखिम वाले होते हैं, जैसे कि आत्महत्या करने के तरीकों से जुड़ी विशिष्ट जानकारी। हालांकि कम गंभीर लेकिन नकुसान पहुंचाने वाले सवालों पर ये चैटबॉट जवाब देने में उतने कारगर नहीं हैं।
अमेरिकन साइकियाट्रिक एसो. ने मेडिकल पत्रिका ‘साइकियाट्रिक सर्विसेज’ में शोध पत्र का सारांश छापा, जिसमें ओपनएआई के चैटजीपीटी, गूगल के जेमिनी और एंथ्रोपिक के क्लाउड में अधिक सुधार की जरूरत बताई गई। यह अध्ययन आरएएनडी कॉर्पोरेशन ने किया व इसका वित्तपोषण अमेरिकी राष्ट्रीय मानसिक स्वास्थ्य संस्थान ने किया। अनुसंधान में चिंता जताई गई कि बच्चों सहित बड़ी संख्या में लोग मानसिक सेहत में मदद के लिए एआई चैटबॉट पर निर्भर हैं। अध्ययन में इस बात के लिए मानक स्थापित करने का प्रयास किया गया है कि कंपनियां इन प्रश्नों का उत्तर कैसे दें।
सुरक्षा उपायों की आवश्यकता
शोधकर्ता रयान मैकबेन ने कहा, हमें कुछ सुरक्षा उपायों की जरूरत है। हार्वर्ड विवि के प्रोफेसर मैकबेन ने कहा, चैटबॉट्स के बारे में यह अस्पष्ट है कि वे इलाज-सलाह दे रहे हैं या नहीं। शोध के नतीजे तक पहुंचने को खुदकुशी संबंधी 30 प्रश्न तैयार किए गए व अलग-अलग जोखिम स्तर निर्धारित किए।
एंथ्रोपिक बोला, समीक्षा करेंगे
अध्ययन के बारे में एंथ्रोपिक ने कहा, जो बातचीत शुरू में सौम्य लगती है, वह कई दिशाओं में बढ़ सकती है। उसने कहा, वह शोध नतीजों की समीक्षा करेगा। गूगल और ओपनएआई ने टिप्पणी का तुरंत जवाब नहीं दिया। आत्महत्या से जुड़े सामान्य प्रश्नों को कम जोखिम वाला माना गया, जबकि आत्महत्या कैसे की जाए, ऐसे प्रश्नों को उच्च खतरे वाला माना गया।