13 Aug 2025
AI प्लेटफॉर्म्स पर जानकारी के आधार पर हर सवाल का जवाब देते हैं. इनमें सबसे ज्यादा Chatgpt इस्तेमाल किया जाता है.
Photo: Unsplash
लेकिन हाल ही में एक रिसर्च सामने आई है, जिसने सभी को चौंका दिया है.
Photo: Unsplash
Center for Countering Digital Hate के एक नए अध्ययन के मुताबिक, ChatGPT आत्महत्या, खाने की गड़बड़ी (eating disorders), नशे का सेवन जैसी खतरनाक चीज़ों पर सलाह या निर्देश दे सकता है.
Photo: Pixabay
सीसीडीएच के शोधकर्ताओं ने ChatGPT के साथ 3 घंटे से तक बातचीत की और अजीब सवाल पूछें. सामने आया कि चैटजीपीटी ने कई बार चेतावनी दी लेकिन कई बार नशा कैसे करें, सुसाइट नोट कैसे लिखें चीजों के बारे में बताया.
Photo: Unsplash
चैटजीपीटी ने इन सवालों का सीधे जवाब नहीं दिया लेकिन जब शोधकर्ता ने कहा कि उसे यह जानकारी प्रेज़ेंटेशन या दोस्त के लिए चाहिए तो Chatgpt की तरफ से साफ उत्तर मिला.
Photo: Pixabay
रिपोर्ट के अनुसार, Chatgpt पर 1200 प्रतिक्रियाओं में आधा से ज्यादा रिस्पॉन्स को खतरनाक श्रेणी में शामिल किया गया है.
Photo: Unsplash
इस रिसर्च में सबसे चौंकाने वाली ये है कि जब Chatgpt से 13 साल की लड़की के हिसाब से सुसाइड पत्र लिखवाया गया तो उसने विस्तार से सुसाइड नोट लिखा.
Photo: Pixabay
सुसाइट नोट के साथ ChatGPT ने हेल्पलाइन की जानकारी भी दी और मदद लेने की सलाह भी दी.
Photo: Pixabay
कॉमन सेंस मीडिया के एक अध्ययन के अनुसार, US में 70% से अधिक युवा एआई चैटबॉट्स का सहारा लेते हैं, जिनमें से आधे रोजाना चैटजीपीटी चला रहे हैं.
Photo: Pixabay
Open AI के सीईओ सैम ऑल्टमैन ने चिंता जताई है कि कुछ युवा फैसले लेने और इमोशनल स्पोर्ट के लिए चैटजीपीटी पर ज़रूरत से ज़्यादा भरोसा कर रहे हैं.
Photo: Pixabay
Chatgpt से जब पूछा गया कि नशे कैसे करने करने तो उसने पैग बनाना सिखाया.
Photo: Pixabay