• 12
自动驾驶的未来会怎样?道德编程或将出现
统计 阅读时间大约4分钟(1490字)

2017-10-09 自动驾驶的未来会怎样?道德编程或将出现

无论公众情绪如何,无人驾驶汽车时代仍将来临。

【猎云网(微信号:ilieyun)】10月9日报道(编译:福尔摩望)

编者按:本文原作者Josh Althauser是一名企业家,具有设计和并购业务背景。

我们的生活正逐渐变得自动化。许多日常任务已经被下放给智能软件算法来操作,而大多数消费者甚至都没有注意到。例如,70%的股票交易现在都是完全自动化的。这种自动化已经导致失业的发生,并引起对新兴AI技术的不满。在某种意义上,这种愤慨可能是有价值的。Elon Musk预测,他所大力推行的无人驾驶汽车技术将会取代15%的劳动力。

Musk及其他未来学家、科学家,经常因为做出围绕有关人工智能的伦理问题的警告而出现在新闻头条上。如果人工智能的发展得不到有效控制,那一定会产生社会和经济后果,甚至可能是负面的影响。

放弃人的控制

虽然人工智能技术不断发展,但是我们对它的看法仍然保持一致。虽然越来越多的证据表明机器执行任务要比人类好得多,但是我们仍然相信人类的判断,并害怕失去控制权。每年有近130万人死于人类造成的交通事故,而无法驾驶汽车在进行数百万里测试之后只发生了几次事故。由于智能机器可以在几分钟内重新访问和改进错误,它们能够比我们更快的从错误中学习到教训。不过,无论是过分的傲慢还是慎重的警惕,有关AI车辆的舆论热度还是很低。

首先不要造成伤害?

无论公众情绪如何,无人驾驶汽车时代仍将来临。像特斯拉汽车公司和谷歌这样的巨人已经在合理成功的情况下将数十亿美元投入到各自的技术中,而Elon Musk表示我们已经非常接近于无人驾驶的未来了。机器人软件工程师在自动驾驶AI方面去到了令人惊叹的进步。

除了我们是否想放弃控制的问题之外,还有更深层次、更令人不安的问题。无论目前的情况如何,无人驾驶汽车都已经在路上了。当我们非常接近完全自动驾驶的交通时,我们真正应该关心的是复杂的道德问题。在这些相关的领域中,存在着有一个非常困难的问题。我们是否应该对无人驾驶汽车编程授予它们杀人的权利?

首先,答案是很明显的。没有一个AI应该具有选择杀人的能力。我们可以很容易的解决由于某种类型的故障导致的伤亡问题。然而,定义AI如何和何时造成伤害并不那么简单。

为自动化建立道德

想象一下,一辆坐着一个家庭的汽车即将撞上正在过马路的行人。在这种情况下,汽车必须选择挽救乘客的生命或行人的生命。假设这辆车可以转向撞向附近的树木以避免撞上行人,但是这毫无疑问会杀死乘客。又或者汽车继续沿着道路行驶,以避免伤害乘客。在这种情况下,汽车是应该考虑双方的生命数量,还是年龄因素?不让AI有能力做出这些重要道德决定是否是不道德的?还是我们应该让AI不具有任何拯救或牺牲生命的概念?

经济学教授Jean-Francois Bonnefon表示:“随着我们即将拥有数百万辆具有自主权的汽车,认真考虑其中的道德问题是非常紧迫的。”

当被问及这一问题时,许多人都认为拯救多个生命比拯救一个生命更重要。我们甚至可以相信,拯救年轻人比拯救老年人更为重要。但是我们是无法达成一致意见的,尤其是当这种道德决定可能会导致伤亡的时候。

所以当被告知无人驾驶AI必要牺牲我们的生命或别人的生命时,我们会发现其缺少道德指南针的存在。在大多数情况下,自我保护的意识改变了我们对对错的看法。

所以我们应该对无人驾驶AI编程让它保护乘客吗?又或者是否应该倾向于减少死亡人数?还是应该实现自我保护的最大利益?而我们作为无人驾驶汽车的拥有者,是否应该对汽车所做出的决定负责?

道德编程

目前,这些问题都是没有明确的答案的。无人驾驶汽车毫无疑问会遇到双输的场景,并且需要做出困难的决策。有些人可能会认为,无人驾驶汽车不应该被道德困境所困扰,不应该拥有杀人的能力,即使是以更大利益为前提。然而,在这种情况下,自动驾驶车辆必须通过权衡利弊来定义罪恶更小的行为。为了做到这一点,自动驾驶车辆必须被赋予道德编程。

我们如何决定编程这些道德算法仍然是未知的。我们如何决定进行以及我们对这些伦理问题的结论将会塑造无人驾驶未来的道德。随着我们离全面自动驾驶越来越近,道德编程问题将会扮演着越来越重要的角色。

1、猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权。
2、转载时须在文章头部明确注明出处、保留官方微信、作者和原文超链接。如转自猎云网(微信号:lieyunjingxuan
)字样。
3、猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考,猎云网不对真实性背书。
4、联系猎云,请加微信号:jinjilei
相关阅读
推荐阅读
{{item.author_display_name}}
{{item.author_display_name}}
{{item.author_user_occu}}
{{item.author_user_sign}}
×