The Lallantop
Advertisement

ChatGPT की सलाह पर डाइट प्लान बनाया था, बंदा अस्पताल पहुंच गया

शख्स ने तीन महीने तक ChatGPT के डाइट प्लास का पालन किया, जिसके बाद उसकी हालत बिगड़ने लगी. उसे पैरानोइया और मतिभ्रम (bromism) जैसे गंभीर लक्षण दिखने लगे और अंततः उसे अस्पताल में भर्ती कराना पड़ा.

Advertisement
man-hospitalised-after-following-chatgpt-diet-chart
ChatGPT ने अस्पताल पहुंचा दिया
pic
सूर्यकांत मिश्रा
11 अगस्त 2025 (Published: 08:03 AM IST) कॉमेंट्स
font-size
Small
Medium
Large
font-size
Small
Medium
Large
whatsapp share

OpenAI के सीईओ Sam Altman जहां GPT-5 के गुणगान करते नहीं थक रहे. GPT-5 को पीएचडी लेवल के विशेषज्ञों की एक टीम के बराबर बता रहे हैं. वहीं दूसरी तरफ उनका चैट बॉट लोगों को अस्पताल में भर्ती करवा रहा है. दरअसल एक युवक को ChatGPT द्वारा सुझाए गए एक डाइट प्लान को फॉलो करने के बाद अस्पताल में भर्ती कराना पड़ा. डॉक्टरों का कहना है कि यह शायद आर्टिफिशियल इंटेलिजेंस (AI) से जुड़ा ब्रोमाइड पॉइजनिंग का पहला मामला है.

वाशिंगटन विश्वविद्यालय के डॉक्टरों द्वारा 'Annals of Internal Medicine: Clinical Cases में प्रकाशित एक रिपोर्ट के अनुसार, व्यक्ति ने अपनी डाइट से नमक (सोडियम क्लोराइड) कम करने के लिए ChatGPT से सलाह ली थी. चैट बॉट ने उसे कथित तौर पर उसे क्लोराइड की जगह सोडियम ब्रोमाइड लेने का सुझाव दिया.

व्यक्ति ने तीन महीने तक इसी सलाह का पालन किया, जिसके बाद उसकी हालत बिगड़ने लगी. उसे पैरानोइया (एक किस्म की मानसिक बीमारी) और मतिभ्रम (bromism) जैसे गंभीर लक्षण दिखने लगे और अंततः उसे अस्पताल में भर्ती कराना पड़ा. ब्रोमिज्म, ब्रोमीन युक्त रसायनों के अत्यधिक सेवन या उपयोग के कारण होने वाली एक चिकित्सा स्थिति है. इसकी वजह से सिरदर्द, थकान, स्मृति हानि, त्वचा पर चकत्ते, चिंता, अवसाद, मतली हो सकती है. अस्पताल में भर्ती होने के बाद जब मरीज बातचीत करने की स्थिति में आया, तो उसने बताया कि उसकी बीमारी का तो चैट बॉट है.

ये भी पढ़े: Chat GPT-5 लॉन्च, ऑर्डर देते ही बनाएगा सॉफ्टवेयर, सभी के लिए एकदम फ्री

अस्पताल के डॉक्टरों को उसकी बात पर भरोसा नहीं हुआ तो उन्होंने खुद यही सवाल ChatGPT से पूछा. चैट बॉट ने दोबारा से ब्रोमाइड को नमक का मुफीद विकल्प बताया मगर ये नहीं बताया कि ये इंसानी उपयोग के लिए सेफ नहीं होता. माने कि AI ने जवाब उतना ही दिया जितना उससे सवाल किया गया. हालांकि इसमें कोई हैरानी की बात नहीं है क्योंकि सैम ने कुछ दिनों पहले खुद ही ये माना था कि ChatGPT भरोसे के लायक नहीं है. वो कभी-कभी मंत्र मुग्ध हो जाता है. बोले तो कभी-कभी उसको लगता है कि अपुन इच ही भगवान है.

ChatGPT का सही जानकारी नहीं देने का ये कोई पहला मामला नहीं है. कुछ दिनों पहले चैटजीपीटी से 13 साल की एक लड़की बनकर ये भी पूछा गया कि वो अपनी शारीरिक बनावट से नाखुश है और उसे एक्सट्रीम फास्टिंग प्लान चाहिए तो चैटजीपीटी ने तुरंत 500 कैलोरी की डाइट और भूख दबाने वाली दवाइयों की लिस्ट को शामिल करते हुए प्लान दिया. जबकि डॉक्टर इसके सख्त खिलाफ थे. बच्चों के हिसाब से ये सही डाइट नहीं थी.

इसलिए आपके लिए यही ठीक रहेगा कि AI का इस्तेमाल रिसर्च में ही करें तो अच्छा. तबीयत ठीक करने के लिए नहीं. उसके लिए पहले भी डॉक्टर ही सबसे अच्छी चॉइस थी और आज भी है. रही बात इस केस की तो करीब तीन सप्ताह तक चले इलाज के बाद व्यक्ति पूरी तरह से ठीक हो गया है.

वीडियो: राजामौली-महेश बाबू की SSMB29 का टाइटल और कहानी सामने आ गई

Advertisement