人工智能尚未准备好在可预见的未来有效地管理在线内容

2020-03-07 11:48:41    来源:    作者:

Ofcom和Cambridge Consultants合作完成了一份报告,研究了AI支持的在线内容审核的有效性。

世界各国政府对社交网络和通信服务施加越来越大的压力,要求对发布在其中的内容负责。社会本身正越来越意识到直播恐怖袭击,网络欺凌,政治操纵等带来的危险。

人工智能尚未准备好在可预见的未来有效地管理在线内容

对于某些拥有数十亿用户的平台,手动管理发布的所有内容是不可行的。上载非法内容后,通常需要有人举报并等待人类主持人做出决定(这些主持人有时在暴露于此类内容后需要接受治疗)。

Ofcom和Cambridge Consultants的报告建议,AI可以通过以下几种主要方式帮助减轻对主持人的心理影响:

改变他们所接触的有害物质的含量和类型。

自动模糊掉部分内容,主持人可以根据需要选择查看以做出决定。

人们可以“询问”有关内容的AI问题以做好准备,或者知道是否对他们来说特别困难,这可能是由于过去的个人经验所致。

手动审核内容的过程缓慢,通常意味着有数百万人在删除有害内容之前就将其删除。尽管当今大多数AI审核实施仍需要人工监督,但内容检测方面的一些进步有助于加快标记和删除内容的速度。

人工智能尚未准备好在可预见的未来有效地管理在线内容

本月早些时候,Facebook拥有的Instagram 公布了对人工智能驱动的审核系统的改进,以防止发布麻烦的内容。尽管以前只限于评论,但Instagram现在会问用户“您确定要发布吗?” 对于它认为可能对他人造成困扰的任何帖子。

作为英国的电信监管机构,Ofcom的报告应有助于形成可行的政策,而不是政治家的通用要求,而不是真正了解这些事情的工作原理(有人能记得呼吁禁止加密和/或故意创建后门的呼吁吗?)

该报告实质上确定了在可预见的将来,不可能进行有效的全自动内容审核。

人工智能尚未准备好在可预见的未来有效地管理在线内容

完全自动化的内容审核存在问题的主要原因之一是-虽然可以通过单独分析来识别一些有害的帖子,但其他内容则需要对上下文有充分的了解。例如,研究人员指出,对于当今的AI适度解决方案而言,很难解决国家法律中的地区和文化差异以及什么在社会上可以接受,但对于本地人类主持人而言却微不足道。

一些内容也比其他内容容易分析。照片和预先录制的视频可以在发布之前进行分析,而实况直播则特别困难,因为看似无辜的场景可能会很快变得有害。

剑桥咨询公司的报告说:“将继续要求人类主持人审阅高度上下文,细微差别的内容。” “但是,基于AI的内容审核系统可以减少人工审核的需求,并减少查看有害内容对他们的影响。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。