Source: The Verge
Meta今日宣布,将限制年轻人查看有关自杀、自残和饮食紊乱等主题的内容。即使这些内容是由青少年关注的人分享的,也将不可见。如果青少年在Facebook和Instagram上搜索此类内容,他们将被引导至“专家资源以获得帮助”,例如全国精神疾病联盟。此外,青少年用户也可能不会知道这些类别的内容是否被分享,以及他们无法看到它。这一变化将在未来几个月内应用于18岁以下用户。
除了隐藏敏感类别的内容之外,青少年账户的默认过滤设置也将调整Facebook和Instagram上的内容。此变化影响了搜索和探索中的推荐帖子,其中包括“敏感”或“低质量”内容,并且Meta将自动将所有青少年账户设置为最严格的设置,尽管这些设置可以由用户更改。这些全面更新的推出是因为Meta和其他科技公司在如何处理其平台上的儿童问题方面受到监管者的密切关注。在美国,Meta的首席执行官马克·扎克伯格以及其他科技公司的高管将于1月31日在参议院就儿童安全问题作证。
此次听证会是在全国范围内试图限制儿童接触成人内容的一波立法的背景下进行的。甚至在色情内容之外,立法者已经表明他们愿意以保护儿童免受某些(合法)内容,如自杀或饮食紊乱的内容侵害为由,对互联网的大部分内容进行年龄筛选。多年来,有关青少年动态中充斥有害内容的报道不绝于耳。但除了平台认为可靠和可接受的内容外,封锁所有其他材料可能会阻止年轻人获得其他教育或支持资源的获取。
同时,在欧盟,数字服务法令要求Meta和TikTok等大型科技公司对其平台上共享的内容负责,其中包括算法透明度和广告定向的规定。而英国的《在线安全法案》,自去年10月成为法律后,现在要求在线平台遵守儿童安全规定,否则将面临罚款。《在线安全法案》旨在使英国成为“全球上网最安全的地方”,但该法律也有一些强烈批评者称其可能侵犯用户隐私。例如,加密通信应用Signal表示,宁愿离开英国也不会收集可能危及用户隐私的更多数据。
限制青少年接触自杀和饮食紊乱的内容无疑是为了保护他们,但封锁所有非认可内容可能阻碍他们获取其他有益资源的机会。如何平衡保护和教育是一个需要思考的问题。