• 0
将信息审核效率提高150倍! Facebook CTO要用AI释放人力
统计 阅读时间大约6分钟(2011字)

2019-05-03 将信息审核效率提高150倍! Facebook CTO要用AI释放人力

这种训练方法将人类的体力劳动从12000小时减少到80小时。

【猎云网(微信号:ilieyun)】5月3日报道 (编译:柠萌)

2017年,因平台上的不当内容Facebook曾引发一系列争议,包括传播假新闻、仇恨言论等。而该公司认为这个问题的解决方案在某种程度上要依赖最古老的信息处理设备——人眼。Facebook宣布,它将额外雇佣数千名信息审核员来审核用户的帖子,防止攻击性、非法或其他可疑内容扩散。这一做法表明,该公司承认仅凭技术是无法有效打击社交网络上的不良行为者的。许多权威人士也宣称,没有任何迹象表明人工智能能够在没有人类干预的情况下识别和消除有问题的内容。

在Facebook F8大会第二天的主题演讲上,该公司的首席技术官迈克·斯科洛普夫(Mike Schroepfer)表示,人工智能已经在大规模检测平台上的不当内容。他还透露,Facebook和许多地方的研究人员目前都努力在技术上取得进展,这些技术将使软件在更少人力的帮助下处理更多的工作。

本周早些时候,在Facebook总部的一间会议室里,斯科洛普夫稍微展示了他计划在主题演讲上公开的图表,图表上的柱子代表了各种各样的不当内容——垃圾邮件、虚假账户、色情内容、暴力内容。除此之外,图表上还有一些统计数据显示,Facebook是何时开始将这些内容与人工智能联系起来,人工智能又是何时承担主要清理责任的。

通过分享这些数据,斯科洛普夫希望消除人们对Facebook没有认真对待清理其平台的挑战的不好印象。不过,他很快就承认他们还有很多工作要做。对于那些持怀疑态度的人,他也没有批评。“对我个人来说,最困难的事情是我们不在乎,”他说。“要么我们不在乎,要么我们没有把它放在首位。但人们会有自己的感觉,在我们做对之前,他们有理由去感受他们想要的任何东西。”

斯科洛普夫秉持着谨慎的态度,表达了他的观点,人工智能作为解决平台内容困境的通用解决方案的作用不能被过分夸大。他说:“我不认为在不久的将来,我们可以不需要人们参与其中,因为这些基本上是人的问题,而且要判断什么内容是仇恨言论,什么是虚假信息,都应当是由人类来完成的。”

但他也表示,人工智能或许能够更多地参与到清除不当内容的苦差事中。读过February Verge专栏作家Casey Newton的文章的人都知道,整天盯着Facebook上最糟糕的用户发布的可怕内容并不仅仅只是沉闷,它甚至会灼伤灵魂。

“其中一些内容看起来真的很糟糕,”斯科洛普夫说。“所以,如果我能从评论者那里挑出最糟糕的,那么接触这些东西的人就会更少。”

斯科洛普夫估计,他目前把大约一半时间花在解决Facebook当前困难的技术上,另一半时间花在其他任务上,设计一些更有趣、更有未来感的东西,比如Oculus VR。“有时可能是70%和30%,有时也可能是30%和70%,”他说。

但如果涉及到研究时,这条界线就模糊了。例如,Facebook对机器视觉进行的调查,让其门户网站视频聊天屏幕智能地显示画面,也可以帮助该公司对视频进行清理,更快地删除有问题的视频。“我可以同时生活在两个世界里,这很令人兴奋,”斯科洛普夫说。

在没有获得广泛帮助的情况下,科技行业在教授人工智能识别事物(包括文本和视觉)方面正在取得进展。这是当前机器学习技术的一个进步,而机器学习技术需要大量的人类预先培训。这种传统的训练“有两个非常大的问题,”斯科洛普夫说。“第一,在某种程度上它是定制的。如果不在训练集中,你可能会找不到它。第二,整个过程非常缓慢。构建一个特别的新分类器可能需要几周的时间。”电脑自己能做的越多,它们就能更好地完成一系列任务。

斯科洛普夫指出了一个名为BERT(Bidirectional Encoder Representations from Transformers)的谷歌研究项目。项目基本的概念并不难理解。你不需要用人类选择的大量例子来训练一个人工智能模型,你可以通过给它一些看起来像字谜的东西来教它。其中一项练习是把单词掩蔽起来,由计算机提供缺失的单词,就像匹配比赛的选手一样。另一项练习是给电脑提供成对的句子,挑战在于需要猜测在真实的文本中,第二个句子是否跟在第一个句子后面。

计算机科学家也在对视频使用类似的技术,比如给人工智能模型一段视频片段和一段配乐,让它预测它们是否真的属于彼此。Facebook的科学家们还向人工智能模型展示了成对的视频片段,并让它们猜测这些片段是否属于一个序列的一部分。据斯科洛普夫说,这种训练方法将人类的体力劳动从12000小时减少到80小时。“这是一个数量级的削减,”他说。

把这些文本和视觉上的谜题塞进一个算法中是很容易的。“你可以获取大量的输入数据并对其进行变异,”斯科洛普夫说。这款软件解决的难题越多,它就越能智能地准确处理未来的难题,从而根据上下文线索理解内容——从识别不可接受的广告到智能地安排新闻提要,这是Facebook上的一项有价值的技能。这些技术属于“自我监督”培训的范畴,Facebook人工智能主管Yann LeCun将其称为未来10年人工智能的主要机遇之一。

更有效地训练算法的目的,并不是弱化这个过程在Facebook如何理解其平台上的内容方面的重要性。相反,它使得进行更多的培训来处理额外类型的内容成为可能。斯科洛普夫举了一个已经在Facebook上使用的自我监督学习的例子:“如果我们训练一个分类器来判断人们是否在谈论选举,我们可以一次训练多个语言的分类器,所以在印度这样的地方效果更好。”

最后,斯科洛普夫说,他认为科技行业当前的悲观情绪终有一天会消退。“我认为我们现在对科技的悲观情绪达到顶峰,或者接近顶峰。”他补充称,对于Facebook来说,要解决现在问题的一个重要方面在于该公司在小问题变成大问题之前可以更好地识别问题,这样它就能尽早部署其技术和人力资源。

“事实上,我们做的比过去好,我们可以更好地预测它们,因为其中一些是可以预测的,”他说。“我们可以更好地更快地对新事物做出反应。所以,即使我们没有预测到,我们也有能力应对。”

1、猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权。
2、转载时须在文章头部明确注明出处、保留官方微信、作者和原文超链接。如转自猎云网(微信号:lieyunjingxuan
)字样。
3、猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考,猎云网不对真实性背书。
4、联系猎云,请加微信号:jinjilei
相关阅读
推荐阅读
{{item.author_display_name}}
{{item.author_display_name}}
{{item.author_user_occu}}
{{item.author_user_sign}}
×