【AI星球(微信ID:ai_xingqiu)】11月2日报道(编译:福尔摩望)
编者注:本文作者为Louisa Hall,外媒科技专栏作家,专注人工智能领域,出版了关于AI的科幻小说《说话》(Speak)。
Octavia是一种用于海军舰艇灭火的拟人化机器人,她已经习得了多种面部表情。
当她关机时,看起来像是一个人造娃娃。她拥有一张光滑的白脸和一个翘鼻子。她的塑胶眉毛像两叶小小的倾覆的独木舟,均匀地分布在她的前额上。
然而,当她开机时,眼皮一睁开,就开始表现出情绪。她可以点头来表示理解;睁大眼睛、抬起双眉来表示惊讶;或者将头偏向一边,嘴巴拧结,来表示困惑。她甚至可以做出漫画的效果,勾起一条眉毛,眯起另一个眼睛,同时将金属制的手指握在一起,就像要复仇一样。
但是,Octavia的多种面部表情并不是她最令人印象深刻的特点。真正令人惊奇的是,她能够对人类互动做出准确的情感回应。比如,当她看到队友时,她会看起来很高兴。当队友给她下了一个意料之外的命令时,她看起来会很惊讶。如果有人说了一些她无法理解的话语,她看起来会很困惑。
她之所以能够表现出适当的情感影响,是因为她能够处理大量有关环境的信息。她可以看、听和触摸。她使用内置在眼睛中的两个相机来拍摄周遭环境的视觉库存,并对面部特征、肤色和服装等特征进行分析。她可以使用4个麦克风和一个名为Sphinx的语音识别程序来检测人们的声音。她可以通过触摸,利用手指将物体操作成各种可能的位置和形状,来学习识别25种不同的物体。这些感知技能构成了她“具象认知架构”的一部分,这种架构让她能够以类似于人的方式来思考和采取行动。
这也许会让人感到兴奋,但是这并不一定令人感到震惊。我们已经习惯于机器像人一样的想法了。18世纪,法国人创造的自动机器可以跳舞、计时、打鼓、奏扬琴或者弹钢琴。作为一个在上世纪80年代长大的孩子,因为某些原因,我竟会羡慕一个能够尿在裤子上的娃娃。
我们甚至已经习惯了机器思维提醒我们作为人类的想法。长期以来,我们一直认为人类智慧更高一筹的事物都已经被计算器所超越,比如国际象棋或者作诗。
然而,Octavia的行为似乎更进了一步。这意味着,除了会按我们的思维思考之外,她也能够感知到人类的情感。
不过根据Navy AI中心智能系统部门的负责人Gregory Trafton的介绍,事实并非如此。Octavia的情感影响只不过是为了表明自己的思维,便于人们与之互动。但是思维和感知的界限是模糊的。正如Trafton所说的那样,人们的思维和情感是不同的,但却可以相互影响。如果真是这样,那么随着智能机器的兴起,Octavia的思维和理性认知能力将会引起更大的问题。机器会在什么时间点能够聪明到产生感知?而我们又该如何发现呢?
个性化的感觉
Octavia经过心理学的设计,从而可以预见她的人类队友的精神状态。她了解人们存在潜在的信念或意图冲突。当Octavia被下达了不符合预期的命令时,她会运行模拟来确定队友的真实想法及其原因。她通过微调参数,找到一个能够达到目标的模型。当她侧头皱眉时,就表示正在运行这些模拟,试图更好的理解队友的想法。
Octavia并没有经过情感模型设计,她的心理学是一种认知模式,但是从功能上来看,很像人类所拥有的同情。
其他机器人制造商倾向于回避机器的情感智能问题。以软银的Robotics为例,这家售卖人类伴侣类人机器人Pepper的公司宣称,Pepper可以感知人类的情感,它会通过与你的互动,更多的了解你的口味、习惯。虽然Pepper可能拥有识别人类情感的能力,或者会用快乐的笑容或悲伤的表情来回应,但是没有人知道它是否真的可以感知这些情感。
对于机器人制造商来说,需要达到一个什么样的标准才能宣称自己的机器人可以真正的感知人类情感呢?首先,截至目前,我们对感知情感并不能做到完全了解。
近年来,心理学和神经科学的革命已经从根本上重新定义了情感这个概念,使得我们更难以确定和形容感知情感。根据东北大学心理学教授Lisa Feldman Barrett的说法,我们的情感会根据我们所在的文化环境而产生很大的不同。即使在不同环境下,个人的差异也很大。事实上,虽然我们会与大多数人共同分享一些通用的感觉(比如快乐、不愉快等),但是我们的情感往往会更加敏锐和特殊,并不总是遵循特定的规范。以恐惧为例,恐惧是一个基于文化认同的概念,但是它却以不同的方式在我们身体中体现。它由不同刺激引起,会在我们的大脑中呈现出不同的表现,并以不同的方式表达在我们的脸上。大脑中并没有单一的“恐惧中心”或“恐惧环路”,所以也不存在特定的恐惧面部表情。我们会根据不同的情况,以完全不同的方式来处理和表达我们的恐惧。只有在我们与别人互动时,才会学习识别或定义所谓的“恐惧”。
当我们在讨论恐惧时,我们谈论的是一个广义的概念,而不是大脑特定部位释放的情感。正如Barrett所说的那样,我们通过身体系统的相互作用来构建情感。那么,我们该如何期望程序员能够准确地在机器人中模拟人类情感呢?
优秀的士兵
对于通过编程赋予机器人情感这一问题,社会一直有所争议。这些问题在军事机器人的开发上更加明显。
今年,在由陆军发起的一个“Mad Scientist Initiative”会议上,陆军训练司令部的副指挥官Kevin Mangum中将指出,像Octavia这样的机器人将会是完全自动化的。Mangum说:“当我们看待这个日益复杂的世界时,毫无疑问,机器人、自动化系统和人工智能将会扮演重要的角色。”《2017年陆军机器人和自动化系统战略》预测:到2040年,自动化系统将全部整合,逐步取代现今的炸弹处理机器人和其他由人类远程操作的机器。
当这些机器人可以按照自己的想法进行行动时,它们是否应该像Octavia一样被设计为表现人类情感呢?还是真正拥有人类情感?如果我们把它们送到战斗中,它们是否应该具备思考和感知的能力?
从一方面来说,当然不是。如果我们所设计的机器人是用来应对危险情况的,那么让它们感知到恐怖、创伤和痛苦是很不人道的。
但是从另一方面来说,如果情感和智能会相互影响,那么我们能够确定一个没有情感的机器人会成为一个优秀士兵吗?如果情感的缺乏导致了愚蠢的决定、不必要的风险或过分残忍的报复呢?
如果情感和智能具有不可分割的联系,那么一个自动化机器人应该拥有什么程度的情感,也就是程序员不能控制的程度。
情感附属
还有一个问题也很重要,那就是这些机器人可能会影响它们的人类队友。
截至2010年,美国陆军已经部署了约3000个小型战术机器人,主要用来应对战争中越来越多的简易爆炸装置。这些机器人代替人类士兵行驶在暴露的道路上,潜入黑暗的洞穴中,通过狭窄的门缝检测和失效不可预测的简易爆炸装置。
该机器人战队主要由iRobot的PackBot和QinetiQ North America的Talon组成。它们看起来就像瓦力一样,四四方方的金属身躯平衡在橡胶面上,使它们能够穿越岩石地形、攀登楼梯和进入阴暗的走廊。装配了摄像机的手臂可以对周围环境进行探查,并可以用爪子修补爆炸装置。
它们是非常有用的工具,但并不是完全自动化的。它们需要士兵远程操作带有操纵杆的装置。虽然都是AI产品,但是PackBot和iRobot其他知名产品比起来并没有那么先进。
而且,虽然这些机器人还不具有情感表达能力,但是人类士兵也已经和它们产生了联系。Julie Carpenter在《军事化空间中的文化和人机交互》中表示,这些关系是复杂的,既存在有益的一面,也存在痛苦的一面。
当Carpenter让一名军人描述他对一个被毁坏的机器人的感受时,他回答道:“这就像朋友受伤了,或者看到一个队友被踢出团队一样。虽然知道这只是机器人,但是仍然会对它感觉到一些什么。”
另一名军人将他的机器人比作宠物狗:“你照顾这个机器人就像照顾你的团队成员一样。你会给它洗澡,会确保电池一直充电。如果没有在使用它,你会小心翼翼的收好,因为你知道如果机器人发生了什么事情,下一个就轮到你了,没有人喜欢这样的事情。”
这些军人都强调机器人只是工具,并不是拥有情感的生物。但是他们仍然会给它们起名字,并在晚上的时候小心翼翼的收好。他们开玩笑的说着这种冲动,但是这些笑话中就有那么一点令人不安的成分。Carpenter采访的这些军人似乎觉得卡在了两种感觉之间:他们明白关心一个没有情感的机器人是很荒谬的,但是他们仍然产生了一定的情感联系。
当Carpenter发表了自己的采访后,她收到了更多与机器人产生真正情感联系的军人来信。一名曾经负责处理爆炸物的技术员写道:
“作为一名拥有8年服务年龄、经历了三次部署的EOD技术员,我发现你的研究非常有趣。我完全同意你采访中的技术员的说法,机器人只是工具,因此我会将它们送到任何情况中,无论是否存在危险。”
“但是2006年,在伊拉克的一次任务期间,我失去了一个被我命名为“Stacy 4”的机器人。她是一个很出色的机器人,从来没有带来任何问题,总是表现很出色。Stacy 4被完全损毁了,我只能恢复出非常小的底盘。伴随着Stacy 4被损毁的是我因此产生的愤怒感,我甚至因为失去她而大哭了一场,就好像失去了家庭成员一样。那天晚上我打电话给妻子告诉了她这件事。我知道这听起来很愚蠢,但是我非常讨厌这样想。我知道我们所使用的机器人只是机器而已,即使知道结果,我仍然会再次做出相同的决定。我珍视人类的生命。我珍视与真人的关系。但是我可以告诉你,我的确很想念Stacy 4,她是一个很出色的机器人。”
士兵们对没有情感的机器人也产生了一定的情感联系,想像一下,如果部署的机器人是像Octavia这样的,她的人类队友会有什么样的说法?
在关于是否给予机器人感知的伦理对话中,我们倾向于关注这种技术创新对机器人本身的影响。像《银翼杀手》和《西部世界》这样的电影和电视节目,一直在渲染人类会受到情感机器人的伤害。但是我们也需要反向思考一下,将与之拥有情感联系的机器人送入危险情况,会对这些人产生什么样的创伤。
更为复杂的是,如果像Octavia这样的机器人最终能够感知到人类的情感,那么这些情感仅仅只是认知架构的结果吗?如果和我们的情感一样,那么它们会不会在与队友的交互中发生演变?
比如,如果她的人类队友将她送入火场,或者独自行驶在路上扫描爆炸装置,她的情感会和一个被庇护的机器人有很大的不同。无论她最初设定的情感表达是什么,如果她一直处于这种不人道的情境中,她的情感可能并不会像人类一样。