在面对仇恨言论的兴趣传播后,在遇到冲突的国家的平台上,Facebook介绍了删除了违反其政策的内容和账户的新措施,并限制了一些地方的Facebook Messenger上的前锋数量。
在缅甸,Facebook已开始减少已展示违反其社区标准的发布内容模式的人员共享的所有内容的分布。
如果它证明了减轻伤害的成功,Facebook也可能在其他国家推出这种方法,社交网络巨人在周四的一份声明中表示。
“如果辛勤或组织更直接促进或吸引暴力,我们将根据我们的政策禁止他们对危险的杂项和组织的政策,”Circienc诚信总监Samidh Chakrabarti“Samidh Chakrabarti说:和战略主任Rosa Birch回复。
然而,“减少内容的分布是另一个杠杆,我们可以拉动对抗仇恨内容和活动的传播,”社交网络巨人表示。
Facebook表示,它还对其产品进行了根本性的变化,以解决病毒,减少可以放大和加剧暴力和冲突的内容的传播。
“在斯里兰卡,我们已经探索了向消息转发添加摩擦,以便人们只能在Facebook Messenger上与一定数量的聊天线程分享消息,”Chakrabarti和Birch写道。
这类似于今年早些时候对WhatsApp的变化Facebook,以减少世界各地的转发消息。
Facebook表示,它构成了一个专门的团队,主动阻止滥用其平台,并在未来的世界中保护弱势群体。
该团队专注于三个关键领域:删除违反其社区标准的内容和账户,减少了边境内容的传播,这些内容可能会扩大和加剧紧张局势,并告知人们对产品和互联网的巨大。
“为了解决可能导致离线暴力的内容,我们的团队特别侧重于打击仇恨言论和错误信息,”Chakrabarti和Birch写道。
Facebook表示,它还扩展了人工智能(AI)的使用,以识别可能包含可能暴力或脱奢的图形暴力和评论的帖子,因此我们可以减少他们的社区运营团队审查的同时分配。
“如果此内容违反我们的策略,我们将删除它。通过以这种方式限制可见性,我们希望减轻离线危害和暴力的风险,“它补充说。