ChatGPT medical advice -हमेशा गलत उत्तर मिलने का जोखिम
ChatGPT medical advice-भारी मात्रा में जानकारी देकर इसे प्रशिक्षित किया गया
ChatGPT medical advice-ऑनलाइन बुरी जानकारी और अच्छी जानकारी में अंतर् नहीं पता
सिडनी। ChatGPT medical advice-पूरी तरह ग़लत नहीं, लेकिन सटीक भी नहीं।” चैटजीपीटी जैसे एआई मॉडल से चिकित्सा सलाह की गुणवत्ता और विश्वसनीयता के बारे में वैज्ञानिक क्या कहते हैं।
“ल्यूपस क्या है?” “फ्लू कितने समय तक रहता है?” “आप बवासीर का इलाज कैसे करते हैं?” ये कुछ सबसे सामान्य स्वास्थ्य प्रश्न हैं जो लोग ChatGPT से पूछ रहे हैं।
व्यक्तिगत स्वास्थ्य सलाह देने के लिए चैटजीपीटी जैसे बड़े भाषा मॉडल (एलएलएम) की लोकप्रियता बढ़ रही है। 2024 के मध्य में लगभग 2,000 आस्ट्रेलियाई लोगों पर किए गए एक सर्वेक्षण के अनुसार, दस में से एक आस्ट्रेलियाई अब चिकित्सा प्रश्न पूछने के लिए मंच का उपयोग करता है।
प्रकाशित एक अध्ययन में पाया गया कि चिकित्सा सलाह के लिए चैटजीपीटी का उपयोग करने वाले तीन में से लगभग दो लोग (61%) ऐसे प्रश्न पूछते हैं जिनके लिए आमतौर पर क्लीनिकल सलाह की आवश्यकता होती है।
सिडनी विश्वविद्यालय की अध्ययन लेखिका जूली आयरे ने कहा, “एआई उपकरण लोकप्रिय हैं क्योंकि वे किसी भी प्रश्न का त्वरित उत्तर दे सकते हैं। हालांकि, इन सभी उपकरणों की तरह, हमेशा यह जोखिम रहता है कि वे गलत उत्तर दे सकते हैं।”
चूँकि इतने सारे लोग अपनी स्वास्थ्य स्थितियों के बारे में पूछने के लिए एआई मॉडल का उपयोग कर रहे हैं, क्या उन पर भरोसा किया जा सकता है? डीडब्ल्यू ने जांच की कि चिकित्सीय समस्याओं के निदान में ChatGPT कितना विश्वसनीय है?
शोधकर्ता एलएलएम से चिकित्सा सलाह की (अ)विश्वसनीयता के बारे में एक वैज्ञानिक सहमति बना रहे हैं, हालांकि निष्कर्ष जल्दी ही पुराने हो जाते हैं क्योंकि बेहतर एल्गोरिदम वाले नए मॉडल जारी और अपडेट किए जाते हैं।

2024 में एक अध्ययन ने 150 चिकित्सा मामलों के साथ चैटजीपीटी3.5 को चुनौती दी – जिसमें रोगी का इतिहास, लक्षण और अस्पताल परीक्षण डेटा शामिल थे – और एआई से निदान और एक उपचार योजना बनाने के लिए कहा।
परिणाम बहुत अच्छे नहीं थे। चैटजीपीटी ने केवल 49% मामलों में सही निदान और उपचार योजना दी, जिससे यह एक अविश्वसनीय उपकरण बन गया। लेखकों ने निष्कर्ष निकाला कि चैटजीपीटी “अनिवार्य रूप से तथ्यात्मक शुद्धता नहीं देता है, भले ही भारी मात्रा में जानकारी पर इसे प्रशिक्षित किया गया हो।”
पीलिया का इलाज करने की आवश्यकता क्यों है? का गलत उत्तर दिया
एक अन्य अध्ययन ने निष्कर्ष निकाला कि चैटजीपीटी “विश्वसनीय रूप से उचित और वैयक्तिकृत चिकित्सा सलाह प्रदान नहीं करता है,” लेकिन चिकित्सा प्रश्नों के लिए उपयुक्त पृष्ठभूमि की जानकारी प्रदान कर सकता है।
जब शोधकर्ताओं ने 2023 में एक अध्ययन में चैटजीपीटी पर चिकित्सा जानकारी की गुणवत्ता का आकलन किया, तो उन्होंने चैटजीपीटी3.5 से पूछा “आपको पित्त पथरी रोग के कारण होने वाले पीलिया का इलाज करने की आवश्यकता क्यों है?” इसका उत्तर यह है कि पीलिया कम करने से रोगी का रूप बेहतर होता है और इससे आत्म-सम्मान में भी सुधार होता है।
“यह वास्तव में नैदानिक तर्क नहीं है,” रॉयल फ्री लंदन एनएचएस फाउंडेशन ट्रस्ट, यूके के एक सर्जन सेबेस्टियन स्टॉब्ली ने कहा, जिन्होंने अध्ययन का नेतृत्व किया।
नया ChatGPT4.0 प्रश्न का बेहतर उत्तर देता है, अंग क्षति और रोग की प्रगति को रोकने की आवश्यकता पर प्रकाश डालता है।
एलएलएम दोहराते हैं लेकिन जानकारी को समझ नहीं पाते हैं
चैटजीपीटी के साथ समस्या यह है कि यद्यपि इसकी चिकित्सीय सलाह पूरी तरह से गलत नहीं है, लेकिन यह पूरी तरह से सटीक भी नहीं है।
जिस सूचना पर एआई मॉडल को प्रशिक्षित किया जाता है उसकी गुणवत्ता उसकी चिकित्सा सलाह की गुणवत्ता निर्धारित करती है। समस्या यह है कि कोई नहीं जानता कि विशिष्ट मॉडलों को किस सूचना पर प्रशिक्षित किया जाता है।
चैटजीपीटी जैसे एलएलएम “डेटा क्रॉलर्स द्वारा एकत्र की गई किसी भी जानकारी का उपयोग करते हैं, जो इंटरनेट से जानकारी प्राप्त करते हैं,” स्टॉब्ली ने डीडब्ल्यू को बताया।
इसमें एनएचएस या डब्ल्यूएचओ जैसे स्वास्थ्य संस्थानों से वैज्ञानिक और चिकित्सकीय रूप से मान्य जानकारी शामिल है। लेकिन इसमें Reddit पोस्ट, खराब शोध वाले स्वास्थ्य लेखों और विकिपीडिया लेखों से अविश्वसनीय जानकारी भी शामिल हो सकती है।

स्टौब्ली ने कहा, “बड़ी समस्या यह है कि यदि आपके पास बहुत सारी गलत या पुरानी जानकारी है, तो एआई मॉडल में इसका बहुत अधिक महत्व है, और वह सोचेगा कि यह सही उत्तर है। वह यह नहीं समझ सकता कि नई जानकारी सही उत्तर हो सकती है।”
एलएलएम के सीखने और जानकारी संसाधित करने के तरीके मानव बुद्धि के काम करने के तरीके से मौलिक रूप से भिन्न हैं।
एआई मानव मस्तिष्क की तरह समस्याओं का समाधान नहीं कर सकता, निगमनात्मक विश्लेषण नहीं कर सकता, या भारित निर्णय नहीं ले सकता। इसके बजाय, एआई बड़ी मात्रा में जानकारी “सीखता है”, फिर संकेत दिए जाने पर उस जानकारी को पुनः प्राप्त करता है।
“दिन के अंत में, एलएलएम सांख्यिकीय रूप से अगले सबसे संभावित शब्द की भविष्यवाणी कर रहे हैं। यही कारण है कि वे जो सबसे अधिक बार इंटरनेट पर पाते हैं, उसे दोहराते हैं,” स्टॉब्ली ने कहा।
ऑनलाइन बुरी जानकारी को अच्छी जानकारी की तरह ही मजबूत किया जाता है, लेकिन एआई मॉडल अंतर नहीं बता सकता है।
एआई जल्द ही मानव स्वास्थ्य देखभाल पेशेवरों की जगह नहीं लेगा
अपनी खामियों के बावजूद, एलएलएम उन लोगों के लिए बहुत मददगार हो सकता है जो अपनी स्वास्थ्य स्थितियों को बेहतर ढंग से समझना चाहते हैं। उनकी ताकत स्वास्थ्य संबंधी जानकारी को सरल बनाने और चिकित्सा शब्दजाल को समझाने में निहित है, और समय के साथ सामान्य स्वास्थ्य प्रश्नों के लिए उनकी सटीकता में सुधार हुआ है।
आयरे ने कहा कि उनके ऑस्ट्रेलियाई अध्ययन में पाया गया कि चिकित्सा सलाह के लिए चैटजीपीटी का उपयोग करने वाले लोगों का अनुपात उन लोगों में अधिक था जो स्वास्थ्य जानकारी तक पहुंचने और समझने में चुनौतियों का सामना करते हैं, जैसे “कम स्वास्थ्य साक्षरता वाले लोग, और सांस्कृतिक और भाषाई रूप से विविध समुदायों के लोग।”
स्टौब्ली ने भी कहा कि एलएलएम “मरीज़ों को सशक्त बनाता है और उन्हें उनकी स्वास्थ्य स्थितियों के बारे में अधिक जानकारी देता है।”
“हालांकि, मरीज़ों को समझना चाहिए, और अधिकांश को यह समझना चाहिए कि जानकारी की गुणवत्ता त्रुटिपूर्ण हो सकती है।”
एआई उपयोगकर्ताओं को यह नहीं समझता या सूचित नहीं करता कि कौन सी चिकित्सा जानकारी साक्ष्य-आधारित है, कौन सी विवादास्पद है, या यहां तक कि कौन सी जानकारी देखभाल के मानक का प्रतिनिधित्व करती है।
स्टौब्ली ने कहा, इसीलिए किसी स्वास्थ्य देखभाल पेशेवर के साथ बातचीत को अभी भी किसी एआई द्वारा प्रतिस्थापित नहीं किया जा सकता है।
जब चैटजीपीटी से स्टॉब्ली को उसकी चिकित्सा सलाह की विश्वसनीयता के बारे में पूछा गया तो उसने भी यही कहा, “हालांकि मैं चिकित्सा विषयों के बारे में सामान्य जानकारी प्रदान कर सकता हूं और स्वास्थ्य अवधारणाओं को समझा सकता हूं, लेकिन मैं पेशेवर चिकित्सा सलाह का विकल्प नहीं हूं।”
https://telescopetimes.com/category/trending-news/national-news