Source: The Verge
Character.AI今日宣布,将很快为青少年用户推出家长控制功能,并描述了在过去几个月中采取的安全措施,包括为18岁以下用户开发了单独的大型语言模型(LLM)。此公告是在媒体审查与两起诉讼后发布的,这些诉讼声称该服务导致了自伤和自杀。Character.AI表示,在过去一个月中,已开发出两个不同版本的模型:一个供成年人使用,另一个供青少年使用。
这一青少年LLM旨在对机器人的回应设置“更为保守”的限制,尤其是在处理浪漫内容方面。系统将更积极地阻止可能的“敏感或暗示性”输出,并试图更好地识别和阻止刺激不当内容的用户提示。如果系统检测到“提及自杀或自伤的语言”,用户将收到提示,领导访问国家自杀预防生命线。
未成年人也将被禁止编辑机器人的回应,防止用户修改对话内容。此外,Character.AI还在着手增加应对成瘾和是否机器人是人类的困惑等问题的功能,解决诉讼中的投诉。
用户若与机器人交互超过一小时,将显示通知,而以前的免责声明将更新为更详细的说明。Character.AI表示,这些变化都是与多位青少年网络安全专家合作进行的,包括ConnectSafely组织。
在技术迅速发展的今天,如何确保青少年的心理安全和健康成长,成为摆在我们面前的一大挑战。
特别声明:本文及配图均为用户上传或者转载,本文仅代表作者个人观点和立场,不代表平台观点。其原创性以及文中陈述文字和内容未经本站证实,
对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本平台不作任何保证或承诺,请读者仅作参考,
并请自行核实相关内容。如发现稿件侵权,或作者不愿在本平台发布文章,请版权拥有者通知本平台处理。
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios)
posted above belong to the User who shared or the third-party website which the User shared from.
If you found your copyright have been infringed, please send a DMCA takedown notice to
info@microheadline.com
来源:https://www.theverge.com/2024/12/12/24319050/character-ai-chatbots-teen-model-training-parental-controls
https://mindsitenews.org/newsletter/lifelike-ai-chatbot-played-role-in-teens-suicide-lawsuit-charges/
https://sg.news.yahoo.com/14-old-groomed-ai-chatbot-183422550.html