• 21
马斯克的“AI反人论”有据可依!Facebook团队发现:AI极易受骗
统计 阅读时间大约3分钟(874字)

2017-07-31 马斯克的“AI反人论”有据可依!Facebook团队发现:AI极易受骗

说到底,人类的恐惧不正是来源于未知吗?

【猎云网(微信号:ilieyun)】7月31日报道 (编译:小白)

众所周知,人工智能可以精准的识别图像或人类语音,但是其算法的运作跟人类的大脑运作方式相去甚远——这就意味着相同的伎俩骗不过人类却可以轻易蒙骗计算机。

以色列巴伊兰大学和Facebook的AI团队的研究员最近发现,将一段音频微微调整之后,人类依然可以一如往常地理解其内容,但是语音识别AI听到的却是完全不一样的内容。这种狡猾的调整方式就是给音频加上一层安静的噪音层,其包含的特殊模式会让神经网络将其与其他词语联系在一起。

该团队将这一新算法——Houdini——应用到一系列音频上,然后让Google Voice进行识别。以下为其中一个示例:

原声音频:她举止优雅,手牵着儿子,走在她前面的是两个女佣,拿着烛光闪烁的银色烛台。

当这段原声音频经Google Voice识别转化成文字后是这样的:

举止优雅,她手牵着儿子,走在他前面的是两个女佣,拿着烛光闪烁的银色烛台。

但是当该音频经过处理后,虽然人类听到的和原声音频几乎无差别,但机器读出来的却成了这般模样:

玛丽很感激,然后承认她让儿子走在前面玛丽将喜欢切片炉过滤计数六。

该团队的杰作也可以运用到其他的机器学习算法上。稍稍改动人类图像,就可以让用于识别人类姿势的算法误读为另一种姿态。给路况图像添加噪声后,该团队可以让在自动驾驶汽车上用于识别道路和标志的AI算法以为图片中看到的是——杂役。上述这些基于图像的研究加过与去年OpenAI和GOogle Brain研究人员发布的结果相似。

人们或许认为这些所谓的对抗例子是一个奇怪的研究领域,但是这些对抗算法可用于机器学习算法的应力测试。当然更令人不安的是,这些算法也可用于邪恶的一面,比如让AI“听见”或“看见”事实上并不存在的东西——从而让自动驾驶汽车看见假的路况,或者让智能扬声器听见假的指令。当然,在现实中实施这些恶意攻击和实验室里的实验还是存在较大的区别,尤其是因为输入该类欺骗性数据并不容易。

但是所有这些研究最关键的地方,大概在于,保护AI免受这类伎俩的攻击在实际操作中亦是非常困难。正如我们先前解释过的,我们还没有真正理解深度神经网络的内部运作方式,这也意味着我们事实上并不了解为什么这些AI算法会特别关注音频或图像中的细微特点。在我们没有彻底搞清楚这些问题前,对抗性例子将会一直存在;当然,AI算法的对抗性测试也会一直存在。

说到底,人类的恐惧不正是来源于未知吗?

1、猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权。
2、转载时须在文章头部明确注明出处、保留官方微信、作者和原文超链接。如转自猎云网(微信号:lieyunjingxuan
)字样。
3、猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考,猎云网不对真实性背书。
4、联系猎云,请加微信号:jinjilei
相关阅读
推荐阅读
{{item.author_display_name}}
{{item.author_display_name}}
{{item.author_user_occu}}
{{item.author_user_sign}}
×