• 8
辟谣了!Facebook的AI项目并没有失控,真相竟是......
统计 阅读时间大约4分钟(1312字)

2017-08-02 辟谣了!Facebook的AI项目并没有失控,真相竟是......

机器确实可以创造他们自己的“语言”,但其目的不是欺骗人类。

【猎云网(微信号:ilieyun)】8月2日报道 (编译:小白)

这些日子,媒体先是争相报道马斯克和扎克伯格关于“AI威胁”的辩论;紧接着,扎克伯格被“打脸”的消息又传了出来:据说,FAIR(Facebook人工智能实验,全称为Facebook Artificial Intelligence Research )的AI项目创造了人类无法理解的交流语言,进而,Facebook终止了该项目以防止这些机器的发展失控。

报道很吸睛,但却偏离了事实,或者说造成了不必要的恐慌。尽管如此,这些报道中有一点是千真万确的:机器确实可以创造他们自己的“语言”,但其目的不是欺骗人类,仅仅是为了更高效的交流。而实验中止的原因也不是因为害怕机器失控,只不过是研究员希望让机器可以和人类交流,而不是证明一些研究人员已经了然于胸的事实,比如机器可以自创语言。

“可能AI程序可以创造他们自己的语言对外界来说有点意外且可怕,但这的确是AI研究的一个子领域,几十年前就已经有相关论文发布,”FAIR研究员Dhruy Batra在Facebook的一篇文章中指出,他还补充道,“在指定环境中试图解决问题的程序往往会找到隐藏的方式来最大化其激励机制。但是,分析激励机制、改变实验参数跟‘中止’或‘关闭’AI根本就是两回事。如果两者能混为一谈,那么每次AI研究员在终止机器上的某一项任务时都可以说是在关闭AI项目了。”

换句话说,机器在交谈时不过是做了很多人类习以为常的事情——省去不必要的措辞,直指要点。

机器交流是常事

该实验的细节记录在FAIR于6月14日发布的文件中,已然说明了该研究的目的是探索机器之间如何交流,机器与人如何交流。也就是说,机器能制造自己的语言,其实根本不值得这么惊讶。

根据FAIR研究的描述,该实验是为了研究“多问题协商任务”,方法是给两个程序“看一组相同的东西(比如两本书、一个帽子、三个球),然后让它们通过协商来自己分配这些东西”。和人类一样,这些机器被设计为以争取自己的最大利益来进行协商(即从对手那里抢到尽可能多的东西),但是跟大多数人类谈判者不同,“这些机器协商争取自己最大利益”的方式非常智能。

图2

图:FAIR研究页面示例

在某些情况下,程序一开始假装对无价值的物品毫无兴趣,然后在后续的谈判中勉强承认其价值——人类在谈判中经常使用的一个有效策略。但是,研究人员一开始并没有把这一行为编入程序中,而是机器在试图达成其利益最大化目标时自己发现的。

至于外界对机器创造自己语言的无端恐惧,研究人员专门对其进行了处理,倒不是因为害怕机器密谋造反,而是希望让机器可以更好地与人类进行交流,并且实验进行地也相当顺利。有趣的是,在FAIR的实验中,大多数并没有意识到与他们交流的是机器——这表明机器已经学会用英语在某一领域与人进行交流。

并且,很人类一样,最好的谈判机器人的谈判结果也是好坏参半,意味着FAIR的聊天机器人不仅可以说人类能理解的英语,还知道什么时候该说什么话。

人类,真的恐慌过度了吗?

事实是,之前大多数的报道重点在于:1)机器自己创造了人类无法理解的语言;2)Facebook研究人员因为惧怕机器失控终结了AI。

现在我们知道,第一个重点早已是AI研究领域已知的事实,而第二个重点根本不存在。但是通过上文对FAIR该项研究的细读,我们不仅澄清了误区,同时也发现了比机器自我创造语言更可怕的事实:机器能够在追求自身利益最大化过程中找到原先未被设计到程序中的协商手段,也是基于这一机制,机器在与人类交流时可以清楚地什么时候该说设么话。

虽然,在实现这一系列操作时,仍存在环境限制,也就是说离开了设定的环境或领域,这些AI就成了废物。即便如此,依然细思恐极。万一,我是说万一,机器通过自身学习,突破了环境限制呢?毕竟,没人真正了解神经网络背后的机制,这也是事实。

1、猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权。
2、转载时须在文章头部明确注明出处、保留官方微信、作者和原文超链接。如转自猎云网(微信号:lieyunjingxuan
)字样。
3、猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考,猎云网不对真实性背书。
4、联系猎云,请加微信号:jinjilei
相关阅读
推荐阅读
{{item.author_display_name}}
{{item.author_display_name}}
{{item.author_user_occu}}
{{item.author_user_sign}}
×