文章核心观点 - Meta旗下的Instagram在自残内容管理方面存在严重不足,未能有效移除相关内容,反而助长了自残网络的形成和传播 [1][3][7][8] 研究方法 - 丹麦研究人员在Instagram上创建了一个私人的自残网络,包括13岁及以上的虚假用户,分享了85条逐渐增加严重程度的自残相关内容,包括血液、剃刀和自残鼓励 [2] Meta的声明与实际表现 - Meta声称已显著改进移除有害内容的流程,使用人工智能技术,声称在用户报告前已移除约99%的有害内容 [3] - 然而,Digitalt Ansvar在一个月的实验中发现,没有一张图片被移除 [3] - Meta发言人表示,鼓励自残的内容违反其政策,并声称在2024年上半年已移除超过1200万条与自杀和自残相关的内容,其中99%是主动移除的 [6] 研究结果 - 研究显示,Instagram的算法不仅没有试图关闭自残网络,反而积极帮助其扩展,13岁的用户在与自残网络成员连接后,成为所有成员的朋友 [7][8] - Digitalt Ansvar创建的简单AI工具能够自动识别38%的自残图像和88%的最严重图像,表明Instagram拥有能够解决问题的技术,但选择不有效实施 [4] 法律与道德问题 - Instagram的不当管理暗示其未遵守欧盟法律,特别是《数字服务法案》要求大型数字服务识别系统性风险,包括对身心健康的可预见负面影响 [5] - 心理学家Lotte Rubæk表示,Meta未能移除自残图像,正在触发脆弱的年轻女性和女孩进一步自残,并导致自杀率上升 [13] - Ask Hesby Holm认为,Meta不管理小型私人群体是为了维持高流量和用户参与度,而这些群体往往是自残群体 [10]