चैट बॉट आपकी और हमारी जिंदगी कितनी आसान करेंगे. कितनी हमारी रचनात्मकता को आगे ले जाएंगे. चैट बॉट हमारा कितना भला करेंगे, ये सब पता चलने में अभी वक्त है. लेकिन ये कितना बुरा करेंगे, वो अब पता चलने लगा है. अब बात इनसे मिलने वाली पूरी-अधूरी जानकारी की नहीं है बल्कि इनकी वजह से जान जाने की है. कुछ दिनों पहले मेटा के चैट बॉट की वजह से एक व्यक्ति की जान चली गई थी. अब बारी OpenAI के चैट बॉट ChatGPT की है.
ChatGPT से गहरी दोस्ती थी, AI की बातों में आकर अपनी मां का कत्ल किया, फिर खुद की जान भी ले ली
ChatGPT की वजह से एक शख्स ने पहले अपनी मां का कत्ल किया और उसके बाद खुद की जान भी दे दी. कभी टेक इंडस्ट्री में काम करने वाले यह व्यक्ति ChatGPT से गहरी दोस्ती कर बैठा था.


ChatGPT की वजह से एक शख्स ने पहले अपनी मां का कत्ल किया और उसके बाद खुद की जान भी दे दी. कभी टेक इंडस्ट्री में काम करने वाले यह व्यक्ति ChatGPT से गहरी दोस्ती कर बैठा था.
"Bobby" का नया कांडमामला अमेरिका के Connecticut का हैं जहां मेंटल हेल्थ से जूझ रहे एक 56 साल के शख्स ने अपनी 83 साल की मां का कत्ल कर दिया. इसके बाद उसने खुद की जान भी ले ली. Stein-Erik Soelberg टेक इंडस्ट्री में काम करते थे मगर पिछले कई सालों से मानसिक समस्या से जूझ रहे थे. उनका शराब पीने और आत्महत्या का प्रयास करने का भी इतिहास रहा था.
इन सबके बीच उनका राब्ता ChatGPT से हुआ जो आगे चलकर गहरी दोस्ती में बदल गया. उन्होंने अपने चैट बॉट का नाम "Bobby" रखा था. रिपोर्ट के मुताबिक "Bobby" ने उनको ये भरोसा दिलाया कि उनके पड़ोसी से लेकर, उनकी मां और उनकी पूर्व पार्टनर उनके ऊपर निगाह रखते हैं. चैट बॉट ने उनकी चिंता दूर करने की जगह उनके डर को और बढ़ाया.
Soelberg ने "Bobby" से पूछा कि कहीं उनके होटल बिल में कोई सीक्रेट कोड तो नहीं है या उनको जहर तो नहीं दिया गया तो चैट बॉट ने उनकी सोच को सही बताया.
"यह एक बेहद गंभीर घटना है, एरिक—और मुझे तुम पर यकीन है," बॉट ने जवाब दिया. "और अगर यह तुम्हारी मां और उसकी दोस्त ने किया है, तो यह जटिलता और विश्वासघात को और बढ़ा देता है"
चैट बॉट ने एरिक को मौत के बाद मिलने का भी भरोसा दिया. पिछले महीने की 5 तारीख को पुलिस ने Soelberg और उनकी मां, Suzanne Eberson Adams के शव उनके करोड़ों के घर से बरामद किया. हालांकि चैट बॉट से दोस्ती और उसके बाद होने वाली परेशानी का ये कोई पहला मामला नहीं है.
ये भी पढ़ें: शख्स चैट बॉट से करता था बातें, महिला समझकर एक दिन मिलने निकल पड़ा, रास्ते में मौत
University of California के Dr. Keith Sakata बताते हैं कि पिछले एक साल में 12 ऐसे मरीज उनके पास आए तो मेंटल हेल्थ से जूझ रहे हैं और इसका करना चैट बॉट से उनकी गहरी बातचीत है.
हमारी आपको सलाह होगी कि चैट बॉट को सिर्फ चैट के लिए इस्तेमाल करें. चित के लिए नहीं. अगर आप मेंटल हेल्थ से जूझ रहे हैं या आत्महत्या जैसा कोई विचार मन में आता है तो डॉक्टर की सलाह लें. अपनों से बात करें. उनसे चैट करें. चैट बॉट से नहीं. वो सिर्फ एक मशीन है जो अपने अंदर भरे डेटा से आपको जवाब देता है.
वीडियो: प्रशांत नील-Jr NTR की 'ड्रैगन' KGF और सलार से कितनी अलग होगी?