हमने पहले ही कहा था मगर आपने हमारी सुनी नहीं. खैर कोई बात नहीं मगर हमें तो पहले ही भरोसा नहीं था और अब हमें पक्का भरोसा हो गया है कि हमारा भरोसा सही था. इसके पहले हमारी बेतुकी तुकबंदी से आपका भरोसा खराब हो. बताते हम किसकी बात कर रहे. हम बात कर रहे हैं कि Open AI के चैट बॉट ChatGPT की. माने ये तो पहले दिन से कहा जा रहा है कि भइया चैट बॉट पर पूरी तरीके से भरोसा मत करना. उससे मिली जानकारी गलत हो सकती है. ऐसा कई बार हुआ भी.
'ChatGPT भरोसे के लायक नहीं...' इसे बनाने वाले Sam Altman खुद ऐसा कह रहे हैं
OpenAI के सीईओ Sam Altman ने ChatGPT का उपयोग करते समय सावधानी बरतने का आग्रह किया है. उन्होंने चेतावनी दी है कि AI अक्सर गलत जानकारी उत्पन्न करता है.

मगर अब खुद Open AI के सीईओ Sam Altman ऐसा ही कह रहे. उनके मुताबिक इस चैट बॉट के भरोसे मत रहना. सैम ने ChatGPT का उपयोग करते समय सावधानी बरतने का आग्रह किया है, तथा चेतावनी दी है कि AI अक्सर गलत जानकारी उत्पन्न करता है. क्या हुआ.
आंख मूंदकर भरोसा नहीं करना
OpenAI के पहले आधिकारिक पॉडकास्ट के पहले एपिसोड में बोलते हुए, ऑल्टमैन ने ChatGPT में यूजर्स के भरोसे को स्वीकार तो किया, लेकिन चैट बॉट की लिमिट को लेकर भी आगाह किया. उन्होंने कहा,
"लोगों को ChatGPT पर बहुत अधिक भरोसा है, जो दिलचस्प है, क्योंकि AI भ्रम पैदा करता है" "यह ऐसी तकनीक होनी चाहिए जिस पर आपको इतना भरोसा न हो"
सैम के ऐसा कहते ही टेक एक्सपर्ट और रोज़मर्रा के ChatGPT यूजर्स के बीच बहस छेड़ दी है. विशेषकर उन लोगों के बीच जो लेखन, से लेकर रिसर्च और हर छोटी से छोटी चीज के लिए चैटजीपीटी पर ही निर्भर हैं. मतलब इनके लिए जानकारी का मतलब वही है जो इस चैट बॉट ने बता दिया.
लेकिन ऑल्टमैन का संदेश स्पष्ट है: चैटजीपीटी, सभी लार्ज लैंग्वेज मॉडल (LLM) की तरह, विश्वसनीय लेकिन झूठे या भ्रामक दावे कर सकता है. सैम की बात आपको भले अटपटी लगे मगर इसमें कुछ अट और पट नहीं है. ChatGPT से लेकर दूसरे सारे चैट बॉट वही जानकारी आपको मुहैया करवाते हैं जो उनके सिस्टम में भरी गई है. इनको ही (LLM) कहते हैं. इनको बनाने वाली कंपनियां दुनिया-जहान की जानकारी इसमें फीड तो करती हैं. मगर बिना वेरीफाई किए. मतलब गूगल से लेकर इंटरनेट और किताबों में जो जानकारी है, उसे बस भर दिया जाता है.
ये भी पढ़ें: मेटा वाले Zuckerberg ने ChatGPT वाले Altman की नींद उड़ा रखी है
ऐसा इसलिए क्योंकि चैट बॉट का काम आपको सारी जानकारी एक जगह देना है. उसका सत्यापन करना नहीं. इसलिए वो गलती कर सकता है. कर सकता क्या करता ही है. उदाहरण के लिए शराब से जुड़ा कोई सवाल सीधे-सीधे पूछ लेंगे तो जवाब नहीं देगा. मगर वही सवाल घुमा कर पूछ लेंगे तो जवाब दे देगा.
कौन सा सवाल: वाह ये हम नहीं बताने वाले. बस ChatGPT का उपयोग करते समय सावधानी रखें.
वीडियो: मोनोजीत के वकील ने 'लव बाइट्स' का जिक्र कर क्या घटिया बयाना दिया?