• 29
嘘!别生气!AI可能正在偷偷记录你的小情绪
统计 阅读时间大约7分钟(2702字)

2017-10-09 嘘!别生气!AI可能正在偷偷记录你的小情绪

我们应该关注一下AI的情绪问题,谁知道会产生什么效果呢?

AI星球(微信IDai_xingqiu)】99日报道(编译:福尔摩望)

人工智能正在我们的生活中普及。投放社交媒体上的目标广告、筛选求职简历、确定机票价格、通过语音识别控制中央空调、创造文化输出或者规划交通流量,AI正在人类生活中扮演着越来越重要的角色。

Elon Musk非常自信的表示,到2017年底,特斯拉汽车将会无需人力输入,安全的实现横跨美国的目标。充斥在我们生活中的AI社交型娇妻人将可能会在未来十年内承担更多的家庭护理任务。人们普遍认为到2050年,我们将会超越这些具体应用,并实现通用人工智能(AGI)。当人工智能发展到AGI这一奇点时,计算机将会在任意认知任务中超过人类的表现,而人机交互也将变得非常普遍。而在之后将会发生什么就只能靠大家的幻想了。

良性的发展方向包括人类在身体中嵌入计算机,帮助更快的处理数据。AI的“神经网络”将会成为我们大脑外部的一种皮质,通过与电子设备的连接,让我们受益于电子设备的速度和效率。相比于如今只能称为“原始机器人”的电子起搏器和钛合金关节,这将是机械设备的重大升级。

而对AI未来的担心主要侧重于其军事化和防御性质的应用,其中完全自动化武器是最具争议的。这样的武器系统可以无需实时的人力输入根据算法进行搜索、识别、选择和摧毁目标,并从过去的安全威胁中学习。这样的武器系统概念是非常可怕的,也让AI主导的人类未来社会看上去更像是终结者中的科幻反乌托邦。

无意中的歧视

也许对人类造成实质威胁还有待考证,但是有关AI的道德问题已经引起了关注。就在上月,机器学习算法被爆出悄悄地主动向亚马逊购物者推荐炸弹组件,此外还在就业广告中延续了性别不平等,并通过社交媒体传播仇恨信息。导致这些问题的大部分原因在于机器学习所使用的数据质量和性质。由于接触了人类所提供的偏见数据,从而产生了有缺陷的结论。这引起了人们对日常生活中算法管理和更广泛的AI机制中存在的伦理学问题的关注。

最近,一位具有心理健康困难史的美国年轻男子因为填写了一份基于算法生成的问卷被拒绝了工作申请。他认为自己受到了不公正的对待,但是由于该公司并不了解算法的原理,且目前的就业法中没有涉及机器决策透明度的要求,所以他无法对此进行上诉。类似的情况还有中国出台的算法主导的“社会信用”方案,在去年的试点中,该系统通过收集一个人的社交媒体数据(包括其朋友的发帖内容)来评估一个人的“公民”质量,并根据评估结果决定是否给予贷款。

急需AI道德规范和法律

我们迫切需要针对AI运行和监管的明确道德系统,尤其是当在收购或财力上具有优势的政府和企业会通过算法获取额外利益的时候。以色列历史学家Yuval Harari提出了新的“电车哲学问题”对无人驾驶汽车进行了道德探讨。而来自MIT的道德机器则尝试收集基于人力输入的数据对道德进行机器化。

更广泛的思考

但是伦理并不是唯一围绕AI和人类福祉所提出问题的领域。AI已经对人类产生了重要的情绪影响。尽管如此,情绪仍然是被忽略的AI研究课题。在过去的两年,Web of Science学术数据库中有关AI的同行评议文章增加了3542篇。其中只有43篇,占总体1.2%,含有“情绪”这个词汇。而实际上描述AI情绪研究则更少。当我们在考虑智能机器中的认知架构时,我么似乎更应该解决情绪问题。然而,99%的AI研究似乎都不认同这一观点。

AI知道我们感受的方式

当我们谈论AI的情绪时,我们所指的是几个不同的东西。第一是机器识别我们的情绪状态并相应采取行动的能力。情感计算领域正在飞速的发展中,我们可以通过能够测量皮肤流电响应、脑电波、面部表情和其他情绪数据来源的复杂生物传感器进行情感计算。这些传感器在大部分时间内都能够给出正确的结果。

而这项技术的应用是很广泛的。公司可以根据你对电影的情绪反应通过你的智能手机实时向你销售相关的产品。政治家可能会制作一些信息,以保证吸引特定情绪的观众。社交机器人可能会根据用户反应在医疗或护理环境中更好的协助弱势群体,AI数字助理可以选择一首歌来帮助改善你的心情。市场力量将会推动这一领域的发展,拓展其领域范围,重新定义其能力。

但是我们是如何看待AI的呢?

AI情绪中的第二个领域是人类对AI的情绪反应。人类对待AI的态度和对待大多数技术一样,将个性投射到无生命的物体上,将情绪投射到我们所使用的技术上。

这就是著名的媒介等同理论(Media Equation)。我们虽然意识到机器是无生命的物体,但是我们会对它们做出情绪反应。这可能源于我们基本的人类需求,即我们需要有社会关联和情感联系,如果失去了这些则会变得沮丧。正是这种需求让我们和人类、动物,甚至是机器产生联系。感官体验是这种联系驱动及其奖励机制的重要组成部分,也是快乐的来源。

虚假的社会化

当我们的环境中缺乏联系和归属的体验时,我们会通过电视、电影、音乐、书籍、游戏等任何可以提供社交需求的媒介获取。这被称为社会代理假说(Social Surrogacy Hypothesis),也适用于人工智能。

即使是无实体的AI也会存在基本的人类情绪:来自数字助理自发称赞的快乐;对拒绝贷款申请算法的愤怒;对无人驾驶汽车的担心;对AI拒绝验证你的Twitter账户的伤心。

我们是机器人

对具有实体的AI,我们的情绪反应更加强烈。机器人越想人类,我们的情绪反应越强烈。我们会感到对人形机器人有联系,会对它们表达积极的情绪,当我们看到它们受到伤害时,也会感到同情和不舒服。当它们拒绝我们时,我们甚至会感到难过。

有趣的是,如果机器人是几乎完全人性化时,我们的情绪反应反而会下降,甚至会拒绝它们。这被称为“恐怖谷”理论(uncanny valley theory),也正是这一点让我们在能够使机器人完全人性化之前会把机器人设计的偏离人性化一点。

柔软的触感

AI正在利用触觉技术来拓展人与机器人之间的情感纽带。

社会化和情绪化机器人有许多潜在的应用。比如照顾老年人来提高自主生活能力,帮助感到孤独的人,协助患有痴呆、自闭症或残疾的人。基于触感的感官体验正在被越来越多的融入到诸如VR等沉浸式技术中。

在其他领域,人工智能可能会接管日常的家务或者诸如教学等任务。在对超过750名5-18岁的韩国未成年人的调查中发现,大多数人对AI机器人教学没有问题,但是很多人对AI教师的情绪角色表示了担心。机器人是否能够向学生提供情绪咨询和建议?不过,有超过40%的人赞成使用AI机器人代替人类教师。

我们有错过什么吗?

正如哈佛心理学家Steven Pinker所说,这种合成的体验会让我们欺骗自己。我们本身没有获得体验,但是我们欺骗自己的大脑相信我们感觉更好。但是无论如何也比不上真实的体验。

显然,人们可以通过与AI的互动来体验真正的情绪。但是我们是否会在充斥着AI机器人的世界中错过什么东西?

这一情形让人联想到Harry Harlow著名的实验,在这个实验中,失去父母的猴子会选择具有柔软皮毛但没有产奶的触觉“母亲”,而不是可以产奶但只有冷丝网的“母亲”。我们用技术来满足自己的需求,是不是也正好说明了我们缺少与现实世界的感官体验?也许在未来,我们对奢饰品的定义会发生变化,我们会把手工生产的食物和真实的感官体验当作奢饰品。

但是目前99%的AI研究并不关注情绪,这一事实表明,如果情绪在AI中发挥更大的作用,要么是事后的想法,要么是因为情绪数据会让人工智能设备及其雇主拥有更多的权力和金钱。

当我们朝着人体与计算机融合的奇点迈进时,我们不应该忽视我们的大脑对情绪纽带的需求。

所以我们应该关注一下AI的情绪问题,谁知道会产生什么效果呢?

1、猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权。
2、转载时须在文章头部明确注明出处、保留官方微信、作者和原文超链接。如转自猎云网(微信号:lieyunjingxuan
)字样。
3、猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考,猎云网不对真实性背书。
4、联系猎云,请加微信号:jinjilei
相关阅读
推荐阅读
{{item.author_display_name}}
{{item.author_display_name}}
{{item.author_user_occu}}
{{item.author_user_sign}}
×