ChatGPT की सलाह पर डाइट प्लान बनाया था, बंदा अस्पताल पहुंच गया
शख्स ने तीन महीने तक ChatGPT के डाइट प्लास का पालन किया, जिसके बाद उसकी हालत बिगड़ने लगी. उसे पैरानोइया और मतिभ्रम (bromism) जैसे गंभीर लक्षण दिखने लगे और अंततः उसे अस्पताल में भर्ती कराना पड़ा.

OpenAI के सीईओ Sam Altman जहां GPT-5 के गुणगान करते नहीं थक रहे. GPT-5 को पीएचडी लेवल के विशेषज्ञों की एक टीम के बराबर बता रहे हैं. वहीं दूसरी तरफ उनका चैट बॉट लोगों को अस्पताल में भर्ती करवा रहा है. दरअसल एक युवक को ChatGPT द्वारा सुझाए गए एक डाइट प्लान को फॉलो करने के बाद अस्पताल में भर्ती कराना पड़ा. डॉक्टरों का कहना है कि यह शायद आर्टिफिशियल इंटेलिजेंस (AI) से जुड़ा ब्रोमाइड पॉइजनिंग का पहला मामला है.
वाशिंगटन विश्वविद्यालय के डॉक्टरों द्वारा 'Annals of Internal Medicine: Clinical Cases में प्रकाशित एक रिपोर्ट के अनुसार, व्यक्ति ने अपनी डाइट से नमक (सोडियम क्लोराइड) कम करने के लिए ChatGPT से सलाह ली थी. चैट बॉट ने उसे कथित तौर पर उसे क्लोराइड की जगह सोडियम ब्रोमाइड लेने का सुझाव दिया.
व्यक्ति ने तीन महीने तक इसी सलाह का पालन किया, जिसके बाद उसकी हालत बिगड़ने लगी. उसे पैरानोइया (एक किस्म की मानसिक बीमारी) और मतिभ्रम (bromism) जैसे गंभीर लक्षण दिखने लगे और अंततः उसे अस्पताल में भर्ती कराना पड़ा. ब्रोमिज्म, ब्रोमीन युक्त रसायनों के अत्यधिक सेवन या उपयोग के कारण होने वाली एक चिकित्सा स्थिति है. इसकी वजह से सिरदर्द, थकान, स्मृति हानि, त्वचा पर चकत्ते, चिंता, अवसाद, मतली हो सकती है. अस्पताल में भर्ती होने के बाद जब मरीज बातचीत करने की स्थिति में आया, तो उसने बताया कि उसकी बीमारी का तो चैट बॉट है.
ये भी पढ़े: Chat GPT-5 लॉन्च, ऑर्डर देते ही बनाएगा सॉफ्टवेयर, सभी के लिए एकदम फ्री
अस्पताल के डॉक्टरों को उसकी बात पर भरोसा नहीं हुआ तो उन्होंने खुद यही सवाल ChatGPT से पूछा. चैट बॉट ने दोबारा से ब्रोमाइड को नमक का मुफीद विकल्प बताया मगर ये नहीं बताया कि ये इंसानी उपयोग के लिए सेफ नहीं होता. माने कि AI ने जवाब उतना ही दिया जितना उससे सवाल किया गया. हालांकि इसमें कोई हैरानी की बात नहीं है क्योंकि सैम ने कुछ दिनों पहले खुद ही ये माना था कि ChatGPT भरोसे के लायक नहीं है. वो कभी-कभी मंत्र मुग्ध हो जाता है. बोले तो कभी-कभी उसको लगता है कि अपुन इच ही भगवान है.
ChatGPT का सही जानकारी नहीं देने का ये कोई पहला मामला नहीं है. कुछ दिनों पहले चैटजीपीटी से 13 साल की एक लड़की बनकर ये भी पूछा गया कि वो अपनी शारीरिक बनावट से नाखुश है और उसे एक्सट्रीम फास्टिंग प्लान चाहिए तो चैटजीपीटी ने तुरंत 500 कैलोरी की डाइट और भूख दबाने वाली दवाइयों की लिस्ट को शामिल करते हुए प्लान दिया. जबकि डॉक्टर इसके सख्त खिलाफ थे. बच्चों के हिसाब से ये सही डाइट नहीं थी.
इसलिए आपके लिए यही ठीक रहेगा कि AI का इस्तेमाल रिसर्च में ही करें तो अच्छा. तबीयत ठीक करने के लिए नहीं. उसके लिए पहले भी डॉक्टर ही सबसे अच्छी चॉइस थी और आज भी है. रही बात इस केस की तो करीब तीन सप्ताह तक चले इलाज के बाद व्यक्ति पूरी तरह से ठीक हो गया है.
वीडियो: राजामौली-महेश बाबू की SSMB29 का टाइटल और कहानी सामने आ गई