聊天机器人服务Character.AI再次面临诉讼,因其被指控对青少年心理健康造成伤害。这次,一名17岁青少年表示,使用该服务导致他自残。 诉讼在德克萨斯州提起,起诉对象包括Character.AI及其联合创始人在谷歌的前职场,指控包括疏忽和产品设计缺陷。诉状指出,Character.AI允许未成年人接触到“色情、暴力及其他有害内容”,并且这些内容可能导致未成年人自我伤害和对他人施暴。 这起案件是由社交媒体受害者法律中心和科技正义法律项目提起的,在此之前他们已针对多个社交媒体平台提起过诉讼。 与去年10月针对Character.AI的一起错误死亡诉讼相似,该案件同样集中在Character.AI故意设计引导用户沉迷使用而缺乏对自杀及其他风险用户的保护措施上。