你当前位置:首页 >资讯 >

Facebook声称在2020年第二季度主动检测到95%的仇恨言论被删除

2021-11-19 10:42来源:

由于违反了2020年第二季度该公司的仇恨言论政策,删除了发布到Facebook的约2250万条内容。该指标来自2020年4月至2020年6月的Facebook最新社区标准执行报告,该报告表明该公司的AI检测到了95%的仇恨言论。在第二季度取消。这比上一季度的88.8%,2019年第四季度的80.2%和四年前的0%有所增长。

Facebook将这一增长归因于第一季度以西班牙语,阿拉伯语和印度尼西亚语等语言扩展了其AI技术,从而补充了对英语语言检测的改进。据该公司称,在第二季度,自动化功能的进一步增强使英文,西班牙文和缅甸文的帖子得以快速删除。

Facebook在Instagram上表示,由于其采取行动的内容数量从2020年第一季度的808,900增至第二季度的330万,其自动仇恨语音检测系统从45%改善到84%。该公司称,这些增长是由于扩大了英语和西班牙语检测技术的驱动。

值得注意的是,此最新报告带有许多警告。尽管Facebook于3月为减轻COVID-19的传播而派遣许多内容主持人回国,但该公司表示,这些指标“显示了当前局势对主持人的影响”,因为呼吁人数减少了在第二季度,因为Facebook不能总是提供它们。在Facebook认为存在审阅错误的情况下,它允许用户选择手动审核,此后主持人在适当的地方恢复了内容。

除了今天的报告外,Facebook表示正在内部进行评估,以“最有效地”审核其发布的指标。此外,本周,该公司还向外部审计师发出征求建议书,以对其社区标准执行报告指标进行独立审计。它计划在2021年开始这项工作,并于当年某个时候发布结果。

从历史上看,Facebook将内容审核工作转移到AI和机器学习算法上的努力是不平衡的。今年五月,Facebook的自动化系统扬言要禁止工作组的组织者在平台上手工缝制面具,以便发表评论或张贴,并告知他们可以将该工作组全部删除。它还将有关当前局势的合法新闻文章标记为垃圾邮件。

也有证据表明,令人反感的内容经常会通过Facebook的过滤器泄漏。1月,西雅图大学副教授凯特琳·卡尔森(Caitlin Carlson)发布了一项实验的结果,在该实验中,她和一位同事收集了300多个似乎违反了Facebook仇恨言论规则的帖子,并通过该服务的工具进行了举报。最终只有大约一半的职位被删除。

更加令人发指的是,NBC最近的一份报告揭露了成千上万个支持QAnon阴谋论的小组和页面,以及数百万的成员和追随者。NBC的另一项调查显示,去年在美国的Instagram上,黑人用户通过自动审核系统禁用其帐户的可能性比其活动显示为白人的用户高50%。

NBC声称公司忽略了算法偏差的迹象。内部研究人员被告知不要与同事分享他们的发现或进行进一步的调查工作。Instagram最终实现了一种稍有不同的审核算法,但拒绝让研究人员测试替代方案。

民权组织,包括反诽谤联盟,全国有色人种促进协会和色变组织,声称Facebook无法执行其仇恨言论政策,并组织了一次广告抵制,其中有1000多家公司削减了社交支出。媒体广告。7月对Facebook的做法进行的民权审计发现,该公司未能执行针对美国总统的选民压制政策,而CEO马克·扎克伯格(Mark Zuckerberg)为该公司的放手方法辩护,而Facebook自己的员工却通过一系列虚拟罢工而退缩。

在今天的新闻发布会上,Facebook负责诚信的副总裁Guy Rosen表示,Facebook现在正依靠人工智能创建一个排名系统,该系统将关键内容按优先级排序,以便审核团队进行审核。人工智能会评估一段内容中的威胁有多严重——例如,有人表达了自杀意图的视频——并标记它以加速审查。“人工智能会对内容进行排名,不管它是由用户报告的还是主动检测到的,”罗森说。“这使我们的团队能够把时间花在需要他们专业知识的案例上。”

Facebook还表示,它正在调整其社区标准,禁止在其平台上发表“含蓄的仇恨言论”,包括黑脸和反犹太刻板形象,并将很快删除违反这项新政策的内容。在咨询了60个外部组织和专家后,该公司表示,将不再允许“以黑脸的形式对黑人进行讽刺”或“犹太人操纵世界或控制媒体网络、经济或政府等主要机构”。

在一个单独的努力增强其适度的努力,Facebook最近可用一个图像的10000个“可恨的模因”从Facebook上从公共组织在美国是一个可恶的模因的挑战的一部分,该公司将提供100000美元的奖团队开发人工智能系统识别照片针对种族、民族、性别、卑鄙和消极的刻板印象,决赛将在12月举行的NeurIPS 2020人工智能和机器学习大会上举行。