हेल्थ केयर से जुड़ी जानकारी देने वाले चैटबॉट्स पर पूरी तरह भरोसा नहीं किया जा सकता

Share

स्नेहा सिंह 

डाक्टर द्वारा दी गई सलाह को लोग तुरंत ही ChatGPT, Gemini या Grok खोलकर जांचने लगते हैं। लोगों को लगने लगा है कि चैटबॉट्स पर पूरी तरह सही जवाब मिलते हैं। ऐसे लोग खुद को बहुत समझदार मानने लगते हैं और यह भ्रम पाल लेते हैं कि उन्हें मेडिकल क्षेत्र का ज्ञान है। लेकिन हैरानी की बात यह है कि ChatGPT, Gemini और Grok कई बार सही सलाह देने के बजाय लोगों को गुमराह कर देते हैं। लोग इनकी सलाह को सही मानकर गलत फैसले ले बैठते हैं। एक मेडिकल जर्नल में प्रकाशित एक शोध के अनुसार, लोकप्रिय AI चैटबॉट्स द्वारा दी गई लगभग 50 प्रतिशत मेडिकल सलाह गलत पाई गई। इस शोध में पांच प्लेटफार्म्स का परीक्षण किया गया था और पाया गया कि ओपन-एंडेड (खुले) सवालों में गंभीर गड़बड़ियां सामने आईं। जब हेल्थकेयर में AI के उपयोग को लेकर काफी चर्चा हो रही है, उसी बीच प्रकाशित एक नए अध्ययन में यह सामने आया है कि लोकप्रिय AI चैटबॉट्स द्वारा दी गई लगभग आधी सलाह गलत हो सकती है। इस अध्ययन में पांच प्रमुख AI प्लेटफार्म्स का मूल्यांकन किया गया, जिससे जनरेटिव AI से जुड़े स्वास्थ्य जोखिमों पर प्रकाश डाला गया। इस सप्ताह प्रकाशित इस शोध में ChatGPT, Gemini, Meta AI, Grok और DeepSeek का परीक्षण किया गया।read more:https://khabarentertainment.in/akshaya-tritiya-summer-matka-and-childhood-memories/ शोधकर्ताओं ने हर चैटबॉट से पांच स्वास्थ्य श्रेणियों में 10-10 प्रश्न पूछे। कुल प्राप्त उत्तरों में से लगभग 50 प्रतिशत जवाब समस्याग्रस्त और गुमराह करने वाले थे। अध्ययन में यह भी पाया गया कि करीब 20 प्रतिशत जवाब अत्यंत भ्रामक थे। अमेरिका, कनाडा और ब्रिटेन के शोधकर्ताओं ने पाया कि कैंसर और वैक्सीन जैसे स्थापित विषयों पर, जहां हां या ना में जवाब दिया जा सकता है, वहां AI ने अपेक्षाकृत बेहतर प्रदर्शन किया। लेकिन न्यूट्रिशन (पोषण) और स्टेम सेल जैसे जटिल विषयों या खुले सवालों में AI माडल सुरक्षित और सटीक जवाब देने में काफी हद तक असफल रहे। रिपोर्ट में एक बड़ी चिंता यह भी जताई गई है कि ये माडल क्लिनिकल जजमेंट या मेडिकल डायग्नोसिस के लिए लाइसेंस प्राप्त नहीं होते, फिर भी बहुत आत्मविश्वास और अधिकारपूर्ण लहजे में जवाब देते हैं। शोधकर्ताओं ने यह भी नोट किया कि AI चैटबॉट्स स्वास्थ्य संबंधी सवालों के जवाब इतनी सटीकता और भरोसे के साथ देते हैं कि वे पूरी तरह सही लगते हैं, जबकि वे अपने दावों के समर्थन में हमेशा विश्वसनीय मेडिकल स्रोत नहीं दे पाते। चैटबॉट्स हर मेडिकल क्षेत्र में जवाब देने की कोशिश करते हैं और जब उन्हें सही जानकारी नहीं होती, तब वे मिलती-जुलती या अधूरी जानकारी दे देते हैं। अध्ययन के आधार पर कहा जा सकता है कि उचित निगरानी और जनजागरूकता के बिना इन चैटबॉट्स का उपयोग गलत जानकारी के प्रसार को बढ़ा सकता है। शोधकर्ताओं ने चेतावनी दी कि ये प्रणालियां विश्वसनीय दिखने वाले लेकिन संभावित रूप से गलत जवाब उत्पन्न कर सकती हैं। यह अध्ययन ऐसे समय में सामने आया है जब AI कंपनियां हेल्थकेयर क्षेत्र में अपने टूल्स को और मजबूत बना रही हैं। OpenAI ने इस साल की शुरुआत में ChatGPT Health लांच किया था, वहीं Anthropic ने भी पेड यूजर्स के लिए Claude for Healthcare पेश किया है, जो उपयोगकर्ताओं को अपने मेडिकल रिकार्ड्स सुरक्षित रूप से कनेक्ट करने की सुविधा देता है।

Leave a Reply

Your email address will not be published. Required fields are marked *