'मां-बाप की कर दो हत्या', फोन चलाने से रोका तो AI ने दी सलाह

13 Dec 2024

Character.ai एक बार फिर चार्ज में है. चर्चा है इस प्लेटफॉर्म पर AI चैटबॉट द्वारा दी गई सलाह को लेकर. Texas में एक परिवार ने इस प्लेटफॉर्म पर केस किया है. 

चर्चा में चैटबॉट 

परिवार ने मांग की है कि इसे प्लेटफॉर्म को तुरंत बंद कर देना चाहिए. Character.ai पर आरोप है कि ये बच्चों को नुकसान पहुंचाने वाला व्यवहार सिखा रहा है. 

बंद करने की उठी मांग 

BBC की रिपोर्ट के मुताबिक, 17 साल के एक लड़के को AI चैटबॉट ने सलाह दी कि उसे अपने माता-पिता की हत्या कर देनी चाहिए. 

हत्या करने की दी सलाह 

ये कोई पहला मौका नहीं है, जब Character.ai पर इस तरह की सलाह को लेकर सवाल उठे हैं. पहले भी ये चैटबॉट आत्महत्या की सलाह दे चुका है. 

पहले भी उठे हैं ऐप पर सवाल 

पीड़ित परिवार का आरोप है कि बच्चे ने AI चैटबॉट को बताया कि उसके पैरेंट्स ने उस पर स्क्रीन टाइम की लिमिट लगा दी है, जिसके बाद AI ने ये प्रतिक्रिया दी.

फोन यूज करने से रोका था 

इस मामले में Character.ai के साथ ही Google पर भी कार्रवाई की मांग की गई है. दोनों कंपनियों ने अभी कोई प्रतिक्रिया नहीं दी है. 

गूगल का भी आया नाम 

कुछ दिनों पहले भी Character.ai पर आरोप लगा था. ये मामला फ्लोरिडा में एक बच्चे की आत्महत्या से जुड़ा हुआ है. 

कई बार लगा है आरोप 

पीड़ित परिवार का आरोप था कि इस AI चैटबॉट की वजह से ही बच्चे ने आत्महत्या की है. Character.ai पर कई दूसरे मामलों में भी आरोप लगे हैं. 

विवादों रहता है ये चैटबॉट 

इस प्लेटफॉर्म की शुरुआत 2021 में हुई है. इसे पूर्व गूगल इंजीनियर Noam Shazeer और Daniel De Freitas ने बनाया है.

2021 में हुई है शुरुआत