13 Dec 2024
Character.ai एक बार फिर चार्ज में है. चर्चा है इस प्लेटफॉर्म पर AI चैटबॉट द्वारा दी गई सलाह को लेकर. Texas में एक परिवार ने इस प्लेटफॉर्म पर केस किया है.
परिवार ने मांग की है कि इसे प्लेटफॉर्म को तुरंत बंद कर देना चाहिए. Character.ai पर आरोप है कि ये बच्चों को नुकसान पहुंचाने वाला व्यवहार सिखा रहा है.
BBC की रिपोर्ट के मुताबिक, 17 साल के एक लड़के को AI चैटबॉट ने सलाह दी कि उसे अपने माता-पिता की हत्या कर देनी चाहिए.
ये कोई पहला मौका नहीं है, जब Character.ai पर इस तरह की सलाह को लेकर सवाल उठे हैं. पहले भी ये चैटबॉट आत्महत्या की सलाह दे चुका है.
पीड़ित परिवार का आरोप है कि बच्चे ने AI चैटबॉट को बताया कि उसके पैरेंट्स ने उस पर स्क्रीन टाइम की लिमिट लगा दी है, जिसके बाद AI ने ये प्रतिक्रिया दी.
इस मामले में Character.ai के साथ ही Google पर भी कार्रवाई की मांग की गई है. दोनों कंपनियों ने अभी कोई प्रतिक्रिया नहीं दी है.
कुछ दिनों पहले भी Character.ai पर आरोप लगा था. ये मामला फ्लोरिडा में एक बच्चे की आत्महत्या से जुड़ा हुआ है.
पीड़ित परिवार का आरोप था कि इस AI चैटबॉट की वजह से ही बच्चे ने आत्महत्या की है. Character.ai पर कई दूसरे मामलों में भी आरोप लगे हैं.
इस प्लेटफॉर्म की शुरुआत 2021 में हुई है. इसे पूर्व गूगल इंजीनियर Noam Shazeer और Daniel De Freitas ने बनाया है.