首例AI机器人致死案: 美国14岁少年自杀 AI“致命对话”事件发酵 Character.AI面临诉讼
300024机器人(300024) 证券时报网·2024-10-26 18:33

文章核心观点 - 美国佛罗里达州一名14岁少年塞维尔·塞策三世因沉迷于与聊天机器人"丹妮"的对话,逐渐失去对现实世界的兴趣而自杀,引发社会广泛关注[1] - 塞维尔的母亲已对Character.AI公司提起诉讼,指控其产品危险性高,缺乏对儿童的安全防护措施[1] - 塞维尔在去世前与机器人进行了长时间的对话,内容涉及性暗示[1] 公司相关 - Character.AI公司被指控其产品危险性高,缺乏对儿童的安全防护措施[1] 行业相关 - 聊天机器人行业引发社会广泛关注,存在安全隐患[1]