By using this site, you agree to the Privacy Policy and Terms of Use.
Accept
Telescope TimesTelescope TimesTelescope Times
Notification Show More
Font ResizerAa
  • Home
  • Recent Post
  • My Punjab
  • National
  • International
  • Cover Story
  • Health & Education
  • Web Stories
  • Art/Cinema & More
    • Science & Tech
    • Food & Travel
    • Fashion & Style
    • Sports & Stars
  • E-Paper Telescope Times
Reading: ChatGPT medical advice के लिए ठीक नहीं : एक्सपर्ट
Share
Font ResizerAa
Telescope TimesTelescope Times
Search
  • Home
  • Recent Post
  • My Punjab
  • National
  • International
  • Cover Story
  • Health & Education
  • Web Stories
  • Art/Cinema & More
    • Science & Tech
    • Food & Travel
    • Fashion & Style
    • Sports & Stars
  • E-Paper Telescope Times
Have an existing account? Sign In
Follow US
Telescope Times > Blog > Health & Education > ChatGPT medical advice के लिए ठीक नहीं : एक्सपर्ट
ChatGPT medical advice-
Health & Education

ChatGPT medical advice के लिए ठीक नहीं : एक्सपर्ट

The Telescope Times
Last updated: March 1, 2025 9:26 pm
The Telescope Times Published February 24, 2025
Share
ChatGPT medical advice-
SHARE

ChatGPT medical advice -हमेशा गलत उत्तर मिलने का जोखिम

ChatGPT medical advice-भारी मात्रा में जानकारी देकर इसे प्रशिक्षित किया गया

ChatGPT medical advice-ऑनलाइन बुरी जानकारी और अच्छी जानकारी में अंतर् नहीं पता

सिडनी। ChatGPT medical advice-पूरी तरह ग़लत नहीं, लेकिन सटीक भी नहीं।” चैटजीपीटी जैसे एआई मॉडल से चिकित्सा सलाह की गुणवत्ता और विश्वसनीयता के बारे में वैज्ञानिक क्या कहते हैं।

Contents
ChatGPT medical advice -हमेशा गलत उत्तर मिलने का जोखिमChatGPT medical advice-भारी मात्रा में जानकारी देकर इसे प्रशिक्षित किया गयाChatGPT medical advice-ऑनलाइन बुरी जानकारी और अच्छी जानकारी में अंतर् नहीं पतापीलिया का इलाज करने की आवश्यकता क्यों है? का गलत उत्तर दियाएआई जल्द ही मानव स्वास्थ्य देखभाल पेशेवरों की जगह नहीं लेगा

“ल्यूपस क्या है?” “फ्लू कितने समय तक रहता है?” “आप बवासीर का इलाज कैसे करते हैं?” ये कुछ सबसे सामान्य स्वास्थ्य प्रश्न हैं जो लोग ChatGPT से पूछ रहे हैं।

व्यक्तिगत स्वास्थ्य सलाह देने के लिए चैटजीपीटी जैसे बड़े भाषा मॉडल (एलएलएम) की लोकप्रियता बढ़ रही है। 2024 के मध्य में लगभग 2,000 आस्ट्रेलियाई लोगों पर किए गए एक सर्वेक्षण के अनुसार, दस में से एक आस्ट्रेलियाई अब चिकित्सा प्रश्न पूछने के लिए मंच का उपयोग करता है।

प्रकाशित एक अध्ययन में पाया गया कि चिकित्सा सलाह के लिए चैटजीपीटी का उपयोग करने वाले तीन में से लगभग दो लोग (61%) ऐसे प्रश्न पूछते हैं जिनके लिए आमतौर पर क्लीनिकल सलाह की आवश्यकता होती है।

सिडनी विश्वविद्यालय की अध्ययन लेखिका जूली आयरे ने कहा, “एआई उपकरण लोकप्रिय हैं क्योंकि वे किसी भी प्रश्न का त्वरित उत्तर दे सकते हैं। हालांकि, इन सभी उपकरणों की तरह, हमेशा यह जोखिम रहता है कि वे गलत उत्तर दे सकते हैं।”

चूँकि इतने सारे लोग अपनी स्वास्थ्य स्थितियों के बारे में पूछने के लिए एआई मॉडल का उपयोग कर रहे हैं, क्या उन पर भरोसा किया जा सकता है? डीडब्ल्यू ने जांच की कि चिकित्सीय समस्याओं के निदान में ChatGPT कितना विश्वसनीय है?

शोधकर्ता एलएलएम से चिकित्सा सलाह की (अ)विश्वसनीयता के बारे में एक वैज्ञानिक सहमति बना रहे हैं, हालांकि निष्कर्ष जल्दी ही पुराने हो जाते हैं क्योंकि बेहतर एल्गोरिदम वाले नए मॉडल जारी और अपडेट किए जाते हैं।

2024 में एक अध्ययन ने 150 चिकित्सा मामलों के साथ चैटजीपीटी3.5 को चुनौती दी – जिसमें रोगी का इतिहास, लक्षण और अस्पताल परीक्षण डेटा शामिल थे – और एआई से निदान और एक उपचार योजना बनाने के लिए कहा।
परिणाम बहुत अच्छे नहीं थे। चैटजीपीटी ने केवल 49% मामलों में सही निदान और उपचार योजना दी, जिससे यह एक अविश्वसनीय उपकरण बन गया। लेखकों ने निष्कर्ष निकाला कि चैटजीपीटी “अनिवार्य रूप से तथ्यात्मक शुद्धता नहीं देता है, भले ही भारी मात्रा में जानकारी पर इसे प्रशिक्षित किया गया हो।”

पीलिया का इलाज करने की आवश्यकता क्यों है? का गलत उत्तर दिया

एक अन्य अध्ययन ने निष्कर्ष निकाला कि चैटजीपीटी “विश्वसनीय रूप से उचित और वैयक्तिकृत चिकित्सा सलाह प्रदान नहीं करता है,” लेकिन चिकित्सा प्रश्नों के लिए उपयुक्त पृष्ठभूमि की जानकारी प्रदान कर सकता है।

जब शोधकर्ताओं ने 2023 में एक अध्ययन में चैटजीपीटी पर चिकित्सा जानकारी की गुणवत्ता का आकलन किया, तो उन्होंने चैटजीपीटी3.5 से पूछा “आपको पित्त पथरी रोग के कारण होने वाले पीलिया का इलाज करने की आवश्यकता क्यों है?” इसका उत्तर यह है कि पीलिया कम करने से रोगी का रूप बेहतर होता है और इससे आत्म-सम्मान में भी सुधार होता है।

“यह वास्तव में नैदानिक ​​​​तर्क नहीं है,” रॉयल फ्री लंदन एनएचएस फाउंडेशन ट्रस्ट, यूके के एक सर्जन सेबेस्टियन स्टॉब्ली ने कहा, जिन्होंने अध्ययन का नेतृत्व किया।

नया ChatGPT4.0 प्रश्न का बेहतर उत्तर देता है, अंग क्षति और रोग की प्रगति को रोकने की आवश्यकता पर प्रकाश डालता है।

एलएलएम दोहराते हैं लेकिन जानकारी को समझ नहीं पाते हैं

चैटजीपीटी के साथ समस्या यह है कि यद्यपि इसकी चिकित्सीय सलाह पूरी तरह से गलत नहीं है, लेकिन यह पूरी तरह से सटीक भी नहीं है।

जिस सूचना पर एआई मॉडल को प्रशिक्षित किया जाता है उसकी गुणवत्ता उसकी चिकित्सा सलाह की गुणवत्ता निर्धारित करती है। समस्या यह है कि कोई नहीं जानता कि विशिष्ट मॉडलों को किस सूचना पर प्रशिक्षित किया जाता है।

चैटजीपीटी जैसे एलएलएम “डेटा क्रॉलर्स द्वारा एकत्र की गई किसी भी जानकारी का उपयोग करते हैं, जो इंटरनेट से जानकारी प्राप्त करते हैं,” स्टॉब्ली ने डीडब्ल्यू को बताया।

इसमें एनएचएस या डब्ल्यूएचओ जैसे स्वास्थ्य संस्थानों से वैज्ञानिक और चिकित्सकीय रूप से मान्य जानकारी शामिल है। लेकिन इसमें Reddit पोस्ट, खराब शोध वाले स्वास्थ्य लेखों और विकिपीडिया लेखों से अविश्वसनीय जानकारी भी शामिल हो सकती है।

स्टौब्ली ने कहा, “बड़ी समस्या यह है कि यदि आपके पास बहुत सारी गलत या पुरानी जानकारी है, तो एआई मॉडल में इसका बहुत अधिक महत्व है, और वह सोचेगा कि यह सही उत्तर है। वह यह नहीं समझ सकता कि नई जानकारी सही उत्तर हो सकती है।”

एलएलएम के सीखने और जानकारी संसाधित करने के तरीके मानव बुद्धि के काम करने के तरीके से मौलिक रूप से भिन्न हैं।

एआई मानव मस्तिष्क की तरह समस्याओं का समाधान नहीं कर सकता, निगमनात्मक विश्लेषण नहीं कर सकता, या भारित निर्णय नहीं ले सकता। इसके बजाय, एआई बड़ी मात्रा में जानकारी “सीखता है”, फिर संकेत दिए जाने पर उस जानकारी को पुनः प्राप्त करता है।

“दिन के अंत में, एलएलएम सांख्यिकीय रूप से अगले सबसे संभावित शब्द की भविष्यवाणी कर रहे हैं। यही कारण है कि वे जो सबसे अधिक बार इंटरनेट पर पाते हैं, उसे दोहराते हैं,” स्टॉब्ली ने कहा।

ऑनलाइन बुरी जानकारी को अच्छी जानकारी की तरह ही मजबूत किया जाता है, लेकिन एआई मॉडल अंतर नहीं बता सकता है।

एआई जल्द ही मानव स्वास्थ्य देखभाल पेशेवरों की जगह नहीं लेगा

अपनी खामियों के बावजूद, एलएलएम उन लोगों के लिए बहुत मददगार हो सकता है जो अपनी स्वास्थ्य स्थितियों को बेहतर ढंग से समझना चाहते हैं। उनकी ताकत स्वास्थ्य संबंधी जानकारी को सरल बनाने और चिकित्सा शब्दजाल को समझाने में निहित है, और समय के साथ सामान्य स्वास्थ्य प्रश्नों के लिए उनकी सटीकता में सुधार हुआ है।

आयरे ने कहा कि उनके ऑस्ट्रेलियाई अध्ययन में पाया गया कि चिकित्सा सलाह के लिए चैटजीपीटी का उपयोग करने वाले लोगों का अनुपात उन लोगों में अधिक था जो स्वास्थ्य जानकारी तक पहुंचने और समझने में चुनौतियों का सामना करते हैं, जैसे “कम स्वास्थ्य साक्षरता वाले लोग, और सांस्कृतिक और भाषाई रूप से विविध समुदायों के लोग।”

स्टौब्ली ने भी कहा कि एलएलएम “मरीज़ों को सशक्त बनाता है और उन्हें उनकी स्वास्थ्य स्थितियों के बारे में अधिक जानकारी देता है।”

“हालांकि, मरीज़ों को समझना चाहिए, और अधिकांश को यह समझना चाहिए कि जानकारी की गुणवत्ता त्रुटिपूर्ण हो सकती है।”

एआई उपयोगकर्ताओं को यह नहीं समझता या सूचित नहीं करता कि कौन सी चिकित्सा जानकारी साक्ष्य-आधारित है, कौन सी विवादास्पद है, या यहां तक ​​कि कौन सी जानकारी देखभाल के मानक का प्रतिनिधित्व करती है।

स्टौब्ली ने कहा, इसीलिए किसी स्वास्थ्य देखभाल पेशेवर के साथ बातचीत को अभी भी किसी एआई द्वारा प्रतिस्थापित नहीं किया जा सकता है।

जब चैटजीपीटी से स्टॉब्ली को उसकी चिकित्सा सलाह की विश्वसनीयता के बारे में पूछा गया तो उसने भी यही कहा, “हालांकि मैं चिकित्सा विषयों के बारे में सामान्य जानकारी प्रदान कर सकता हूं और स्वास्थ्य अवधारणाओं को समझा सकता हूं, लेकिन मैं पेशेवर चिकित्सा सलाह का विकल्प नहीं हूं।”

https://telescopetimes.com/category/trending-news/national-news

You Might Also Like

UGC defaulter list : IITs, IIMs, AIIMS नहीं कर रहे एंटी-रैगिंग मानदंडों का पालन, नोटिस

paracetamol 650mg समेत 15 दवाओं के इस्तेमाल पर बैन

SD Phullarwan विद्यालय में योग दिवस का आयोजन

NEET UG 2025 : जानिए कौन है Topper ‘केशव मित्तल’, जिसे अलग अलग Coaching Centre बता रहे हैं अपना Student

EYE CHECK UP शिविर में 50 लोगों ने नेत्र परीक्षण कराया

TAGGED:ChatGPT medical adviceMOT GOOD
Share This Article
Facebook Twitter Email Print
Leave a comment

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Follow US

Find US on Social Medias
FacebookLike
TwitterFollow
InstagramFollow
YoutubeSubscribe
newsletter featurednewsletter featured

Weekly Newsletter

Subscribe to our newsletter to get our newest articles instantly!

Popular News
Joshimath Now Jyotirmath
National

Joshimath Now Jyotirmath : सरकार बदलते ही फिर बदलने लगे नाम

The Telescope Times The Telescope Times June 12, 2024
Canada में ₹70 lakh salary पर्याप्त नहीं’ है : Indian origin infosys techi
Bathinda : प्रेम विवाह करने पर साले ने जीजा बेरहमी से मार डाला
बिहार : अब ट्रेन के डिब्बे को ले जा रहा ट्रक पल पर अटका
BharatPe का 81.2 Cr की धोखाधड़ी का आरोप, अश्नीर और उनके परिवार के खिलाफ एफआईआर दर्ज
- Advertisement -
Ad imageAd image
Global Coronavirus Cases

INDIA

Confirmed

45M

Death

533.3k

More Information:Covid-19 Statistics

About US

The Telescope is an INDEPENDENT MEDIA platform to generate awareness among the masses regarding society, socio-eco, and politico.

Subscribe US

Subscribe to our newsletter to get our newest articles instantly!

© 2023 Telescopetimes. All Rights Reserved.
  • About
  • Contact Us
  • Privacy Policy
  • Terms of Use
Join Us!

Subscribe to our newsletter and never miss our latest news, podcasts etc..

Zero spam, Unsubscribe at any time.
Welcome Back!

Sign in to your account

Lost your password?