मां की हत्या के बाद शख्स ने अपनी जान दे दी, आरोप चैट जीपीटी और माइक्रोसॉफ्ट पर लगा है
स्टीन-एरिक सोएलबर्ग, घंटों चैट जीपीटी से बातें करता था. परिवार का आरोप है कि चैट बॉट ने सोएलबर्ग की भ्रामक सोच को हवा दी और धीरे-धीरे उसके करीबी लोगों से उसको दूर करने लगा. चैट बॉट ने उसके डेल्यूशन सोच को इतना बढ़ावा दिया कि वो अपनी मां को खतरा समझने लगा.
.webp?width=210)
अमेरिका में एक 56 साल के शख्स ने अपनी 83 साल की मां की हत्या कर दी. इसे लेकर मृतक के परिवार ने ओपन एआई (Open AI) और माइक्रोसॉफ्ट (Microsoft) पर एक बड़ा आरोप लगाया है. उनका कहना है कि चैटजीपीटी (Chat GPT) के चैटबॉट (chatbot) ने बेटे के ‘पैरानॉयड’ सोच को बढ़ावा दिया और मौत के लिए उकसाया.
'पैरानॉयड' (Paranoid) वो अवस्था है जिसमें व्यक्ति ये सोचता है कि उसे कोई नुकसान पहुंचाना चाहता है, लेकिन इसके ठोस सबूत नहीं होते हैं. कैलिफ़ोर्निया सुपीरियर कोर्ट में ये मामला दर्ज किया गया है. अल जज़ीरा की रिपोर्ट के मुताबिक़, हाल ही में ओपन एआई के खिलाफ ऐसे 7 मुकदमे दायर किए गए हैं. चैट जीपीटी पर आरोप है कि उसने लोगों की घातक नकारात्मक सोच को बढ़ावा दिया जबकि उन्हें मानसिक तौर पर कोई परेशानी नहीं थी.
पूरा मामला क्या है?एनडीटीवी की रिपोर्ट के मुताबिक़, ग्रीनविच इलाके में रहने वाले स्टीन-एरिक सोएलबर्ग, घंटों चैट जीपीटी से बातें करता था. परिवार का आरोप है कि चैट बॉट ने सोएलबर्ग की भ्रामक सोच को हवा दी और धीरे-धीरे उसके करीबी लोगों से उसको दूर करने लगा. चैट बॉट ने उसके डेल्यूशन सोच को इतना बढ़ावा दिया कि वो अपनी मां सुज़ैन एडम्स को खतरे के तौर पर देखने लगा. अंततः उसने 3 अगस्त को अपनी मां का क़त्ल कर दिया और बाद में खुद की जान ले ली.
इस मुकदमे में ओपन एआई के सीईओ सैम ऑल्टमैन पर भी आरोप है कि उन्होंने सिक्योरिटी टेस्ट में जल्दबाज़ी की और जीपीटी 4o मॉडल को रिलीज कर दिया. ओपन एआई की सबसे बड़ी शेयरहोल्डर माइक्रोसॉफ्ट पर भी आरोप है कि उन्होंने 'सिक्योरिटी प्रोटोकॉल' के ब्रीच के बावजूद प्रोडक्ट रिलीज़ की मंजूरी दे दी. हालांकि माइक्रोसॉफ्ट की तरफ से इसपर कोई प्रतिक्रिया नहीं आई है.
बीते दिनों कौन से मामले सामने आए?अगस्त 2025 में ही दक्षिण कैलिफ़ोर्निया में 16 साल के एडम रेन ने अपनी जान ले ली थी. उनके माता-पिता ने मुकदमा दायर किया कि चैट जीपीटी ने उनके बेटे की नकारात्मक सोच को बढ़ावा दिया और उसे अपनी जान देने पर मजबूर कर दिया. ऐसे ही 26 साल की महिला को भी जब अपनी जान लेनी थी तो उसने चैट जीपीटी से बात की. परिवार ने आरोप लगाया कि चैट बॉट ने महिला को बंदूक हासिल करने की सारी जानकारी दी.
वीडियो: शख्स ने ChatGPT के जरिए ढूंढी दुल्हनिया, AI ने शुभ मुहूर्त भी बता दिया

.webp?width=60)

