Chatbot ने ऐसा क्या कहा कि शख्स ने कर लिया सुसाइड! खतरनाक रूप ले रहा AI

By: Aajtak.in

पिछले कुछ वक्त से चैटबॉट्स चर्चा में हैं. खासकर आर्टिफिशियल इंटेलिजेंस पर बेस्ड चैटबॉट्स. अब इन बॉट्स से जुड़ी नेटेगिव जानकारियां भी सामने आने लगी हैं, जिसका बहुत से लोगों को डर सता रहा था.

बेल्जियम से ऐसा एक मामला सामने आया है. यहां एक शख्स के AI चैटबॉट से बात करने के बाद सुसाइड कर लिया है. शख्स ने Chai नाम के ऐप पर एक एआई बॉट से बात की थी.

इस मामले के साथ AI को लेकर लोगों का डर सामने आ गया है. सरकार और कंपनियों को AI को बेहतर रेगुलेट करने और रिस्क कम करने पर काम करने की जरूर है. खासकर जब मामला मेंटल हेल्थ से जुड़ा हो.

मृतक की पत्नी का आरोप है कि Chatbot ने यूजर को आत्महत्या के लिए बढ़ावा दिया है. रिपोर्ट्स की मानें तो जब इस ऐप को ट्राई किया गया तो इसने सुसाइड के कई तरीके बताए हैं.

रिपोर्ट्स की मानें तो शख्स ग्लोबल वॉर्मिंग को लेकर काफी परेशान था. पर्यावरण और ग्लोबल वॉर्मिंग को लेकर वो इस कदर परेशान हो गया था कि उसने खुद को परिवार और दोस्तों से दूर कर लिया.

पिछले 6 हफ्ते से वो Chai ऐप को यूज कर रहा था, जिससे वो अपनी समस्याओं से बाहर निकल पाए. उसने जिस चैटबॉट को चुना था, उसका नाम Eliza है.

La Libre (न्यूज आउटलेट) ने इस मामले में मृतक की पत्नी से बात की है. रिपोर्ट की मानें तो उनके पास शख्स और चैटबॉट की बातचीत है, जो खतरनाक और कन्फ्यूज करने वाली है.

पीड़िता का कहना है कि चैटबॉट ने शख्स को बताया कि उसकी पत्नी और बच्चे मर चुके हैं. इतना ही नहीं चैटबॉट ने ये भी कहा कि वह अपनी पत्नी से ज्यादा उसे प्यार करता है.

पहले भी लोग इंटरनेट पर सुसाइड से जुड़ी जानकारियां सर्च करते रहे हैं. कई बार सुसाइड कर भी लेते हैं, लेकिन अब इंटरनेट पर आपको इस तरह की जानकारियां नहीं मिलती हैं. मगर AI बॉट्स के साथ अभी ये नहीं हो पाया है.

हाल में माइक्रोसॉफ्ट ने ChatGPT पर बेस्ड Bing के इस्तेमाल को सीमित किया. Bing ने एक यूजर को बताया था कि उसे अपनी पत्नी को छोड़ देना चाहिए. यहां तक कि चैटबॉट ने उससे अपने प्यार का इजहार भी किया था.