• 0
马斯克、DeepMind高管等科技领袖签署承诺:不开发致命自动化武器,人类生命绝不受机器威胁
统计 阅读时间大约3分钟(1036字)

2018-07-18 马斯克、DeepMind高管等科技领袖签署承诺:不开发致命自动化武器,人类生命绝不受机器威胁

这是反对传播这种技术的非官方和全球性研究人员及管理人员联盟的最新举措。

【猎云网(微信号:ilieyun)】7月18日报道(编译:福尔摩望)

包括埃隆·马斯克和谷歌AI子公司DeepMind三名联合创始人在内的技术领袖,签署承诺了不开发“致命自动化武器”。

这是反对传播这种技术的非官方和全球性研究人员及管理人员联盟的最新举措。这一承诺警告称,使用人工智能的武器系统“在没有人为干预的情况下攻击目标”,构成了道义和实际威胁。签署者认为,从道德上讲,有关人类性命的决定“绝不应委托给机器”。在实际方面,他们说,这种武器的扩散将“对每个国家和个人造成危险的不稳定性”。

这项承诺于今天在斯德哥尔摩举行的2018年国际人工智能联席会议(IJCAI)上公布,它是由未来生命研究所所组织的,该研究机构旨在“减少人类生存风险”。该研究所以前曾帮助同一批人发布联名信,呼吁联合国考虑对所谓致命自动化武器的新规定或者法律。不过,这是有关人士首次个别承诺不开发这种技术。

签署方包括SpaceX和特斯拉首席执行官埃隆·马斯克;谷歌子公司DeepMind的三名联合创始人——Shane Legg、Mustafa Suleyman和Demis Hassabis;Skype创始人Jaan Tallinn;还有一些世界上最受尊敬和最杰出的人工智能研究人员,包括Stuart Russell、Yoshua Bengio和Jürgen Schmidhuber。

麻省理工学院物理学教授Max Tegmark也是这项承诺的签署人,他在一份声明中表示,这项承诺显示AI领袖开始“从谈话转向行动”。Tegmark说,这项承诺做了政客们没有做的事情:严格限制军用人工智能的发展。“自主决定杀人的武器和生物武器一样令人作呕,破坏稳定,应该以同样的方式处理,”Tegmark说。

迄今为止,争取国际上对自动化武器管制的支持的努力没有取得成效。活动人士建议,应该颁布新的法律对此进行限制,类似于化学武器和地雷。但请注意,目前我们很难区分什么是自动化系统,什么不是自动化系统。例如,炮塔可以瞄准个人而不是向他们开火,人类“在这一循环中”只是做了最终的决定而已。

他们还指出,执行这样的法律将是一个巨大的挑战,因为开发人工智能武器的技术已经很普遍了。此外,参与这项技术开发最多的国家(如美国和中国)没有真正的动力去停止开发。

ai.jpg

曾撰写了一本关于战争和人工智能未来书的军事分析家Paul Scharre表示,目前没有足够的“动力”来推动国际范围的限制。“没有一个西方民主国家的核心集团参与,而在过去禁止武器的呼吁中,加拿大和挪威等国起了重要的带头作用,”Scharre说。

不过,虽然国际法规可能不会很快出台,但最近的事件表明,像今天承诺这样的集体行动可以产生一定影响。例如,谷歌在被披露公司正在帮助五角大楼开发非致命的AI无人机工具后,受到了员工的抗议。数周后,它发布了新的研究指南,承诺不开发人工智能武器系统。威胁抵制韩国KAIST大学也有类似的结果,KAIST总裁承诺不开发军事人工智能等违背人类尊严的自动化武器。

不过,我们需要指出,在这两个例子中,有关组织并没有阻止自己与他人一起开发非致命用途的军事人工智能工具。但承诺不要让计算机全权负责杀人,总比没有承诺好。

1、猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权。
2、转载时须在文章头部明确注明出处、保留官方微信、作者和原文超链接。如转自猎云网(微信号:lieyunjingxuan
)字样。
3、猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考,猎云网不对真实性背书。
4、联系猎云,请加微信号:jinjilei
相关阅读
推荐阅读
{{item.author_display_name}}
{{item.author_display_name}}
{{item.author_user_occu}}
{{item.author_user_sign}}
×