【猎云网(微信号:ilieyun)】6月23日报道(编译:福尔摩望)
2014年12月,John Rust写信给剑桥大学法律系主任,警告他们有一场风暴正在酝酿之中。
在这封电子邮件中,Rust告诉该大学,该校的一位心理学教授Aleksandr Kogan正在使用他所创建的应用,在Facebook用户不知情的情况下收集数百万用户的数据。该应用不仅收集选择参与的人的数据,还收集了这些用户的Facebook好友的数据。他写道,如果只有10万人选择了该应用,并且他们每个人平均有150个好友,那么Kogan可以获得1500万人的数据,然后他可以将其用于政治游说。编辑们已经开始四处探寻,而Rust希望学校进行干预,认为Kogan的工作会让该校面临“几乎完全不利”的媒体关注风险。
“他们的目的是将这一工具扩展到整个美国,并在竞选活动中使用它,”Rust在信件中提及了Kogan及其客户,一家曾经鲜为人知的政治咨询公司,剑桥分析公司(Cambridge Analytica)。他预测说:“我根本看不到其他的结局。”
六个月后,特朗普宣布参加美国总统竞选,并发起了竞选活动,而这其中就有剑桥分析公司的贡献。他在2016年的选举胜利令人震惊,并将该公司推到了聚光灯之下。凭借这一点,该公司与全球主要商业客户签订了公司合同。但是在帮助特朗普进入白宫一年多之后,有消息传出,剑桥分析公司聘请Kogan未经同意就收集了数千万美国Facebook用户的数据。这一新闻引发了美国公众对隐私的担忧。
作为研究和开发心理测试的大学心理测量中心的主任,Rust比大多数人更了解Facebook数据是如何被操纵的。他自己实验室的研究人员首先发现,Facebook的点赞功能可以用来推断各种有关人们个性和政治倾向的敏感信息。但他表示,这项研究的目标是提醒全世界,这些数据会被如何利用,以及允许数据如此自由交易的危险。
如今,当他的研究被证明之后,他并不觉得高兴。他说道。
Facebook现在承认,Kogan收集了多达8700万美国人的Facebook数据并将其出售给了剑桥分析公司。但是,由于CEO马克扎克伯格和他的团队试图清理这个烂摊子,所以Rust几乎不被人所知晓。相反,他的整个部门以及他的全部遗产都和Kogan与剑桥分析一起被清理掉,甚至被扎克伯格指控犯了自己试图警告的违规行为。“我们的首要目标是保护人们的数据,”Facebook产品合作总监Ime Archibong说。“我们有机会做得更好。”
自从今年春天丑闻爆出后,Facebook已经屏蔽了心理测量中心所使用的好几个应用,并且在国会面前的证词中,扎克伯格甚至暗示这一部门内部可能会发生“不好的事情”,需要面临来自Facebook的进一步调查。在Facebook上周提交给国会的书面回复中,16次提到心理测量中心总是在与Kogan合作,然而事实是,他们之间只进行了短暂的合作。
现在,Rust和其他人正在等待Facebook调查的结果,该调查将会一直持续到英国监管机构完成调查。然而,该中心的声誉似乎已经与剑桥分析公丑闻密不可分了。Rust担心Facebook的谴责不仅会玷污该部门的遗产,而且会在最需要的时候,将一个关键的研究搁置下来。
Rust认为心理测量学注定就会被滥用。从最基本的角度来看,它是衡量人们心理和心理特征、优势与弱点的科学。它构成了SAT和IQ测试的基础,但它也被用于各种令人不安的目标,包括优生学。
“很长时间以来,人们在提到心理测量学时都会说‘这真的太棒了,它会改变世界的。’它确实如此,但它并不总是以人们想要的方式改变世界,”Rust说。他正坐在心理测量中心仅剩的几台电脑旁。
在他研究心理学的早期,Rust看到智商测试和其他能力测试如何被用来证明对不同种族的歧视,并将他们排除在学术和职业机会之外。他的一位博士教授Hans Eysenck就是这一理论的主要支持者,他们认为不同种族的人在遗传上会拥有不同的智商。
“我发现这个领域越来越右倾,我觉得有义务来表明他们的做法是错误的,”Rust说,他自称自己年轻时是无政府主义者。“大多数人会放弃这个领域。我没有。我们必须解决所有这些问题。“
Rust于1989年在伦敦城市大学启动了心理测量中心,最初他专注于开发儿童智力测验。2005年,他将中心迁至剑桥大学。但直到2012年,一位名叫David Stillwell的学者的到来,该中心的工作才逐渐转移到社交媒体上。虽然大多数人格测试都是由学校和企业管理,并且从未向参与者展示过结果,但Stillwell开发了一款应用,可让人们自行进行个性测试并获得结果。他们也可以选择与研究人员分享结果。
这个名为myPersonality的应用也嵌入了Facebook,并要求参与者第二次选择是否要共享Facebook个人资料中的数据。它只收集选择加入的人的数据,不包含他们的好友,并且提供了免责声明,表明这些信息可以“被存储和用于商业目的,还会以匿名的方式提供给第三方,例如(但不限于)研究机构。“MyPersonality经历了病毒式传播,在2007年至2012年期间积累了600万参与者的数据,其中约30%至40%的人选择与研究人员分享他们的Facebook数据。
2013年3月,Stillwell、一位名为Michal Kosinski的博士生和第三名研究人员共同撰写了一篇现在知名的论文,这篇论文显示,Facebook的点赞功能,即使只涉及看似良性的话题,也可以用来预测关于人的高度敏感的细节,包括他们的性取向、种族以及宗教和政治观点。当时,Facebook Page的点赞数据仍然是公开的,这意味着任何人都可以收集每个选择点赞的人的信息。该论文警告说,这些预测“可能会对个人的幸福、自由甚至生命构成威胁”,并以对Facebook等公司的呼吁为皆为,要求他们向用户提供“透明度和对自身信息的控制权”。
“这很可怕,它仍然是,“Rust说道。“它表明通过网络进行交流与写信或进行电话交谈是完全不同的。数字足迹就像是你的化身。“
他表示,他希望这项研究能够引发一场关键性的对话,讨论让算法在海量数据集上运行的真正含义,但这些对话几乎都发生在硅谷的闭门会谈中。该论文以及随后的论文为两位研究人员和心理测量中心赢得了国际关注。2013年,该中心开始许可其他学者使用匿名数据集,并产生了数十篇研究论文。这些合作者必须同意禁止共享数据,取消数据匿名或将其用于商业用途的条款。
当时,Facebook的条款禁止销售数据或将其转移给数据经纪人。但它确实允许应用开发人员在某些条件下共享学术研究的数据。例如,用户需要同意他们的数据被共享。开发者还需要确保其他研究人员在访问它之前同意这些条款,你不能直接将数据集放在网站上。Facebook的条款不断变化,据该公司称,开发者受到最新版本的约束。这意味着开发者有责任确保他们的应用在每次更改时都符合Facebook的条款。
Rust说,部门的研究人员相信他们遵守了Facebook的所有规则,至少在当时Facebook也似乎认同这一点。2011年,该公司支付了Stillwell成立工作室的费用,该工作室可以使用Facebook数据进行研究。2015年,Facebook研究员邀请Kosinski在加利福尼亚长滩举办的一次会议上介绍他的发现。如果他们的工作有什么问题,Facebook和研究人员都没有意识到。
2012年左右,Rust邀请在心理学系工作的新教授Kogan参加心理测量中心的会议。Kogan建立了剑桥Prosociality and Well-Being实验室,根据其网站介绍,该实验室主要研究“人类善良和幸福的心理”。
“我认为这对一位新的大学讲师来说是一件很好的事情,”Rust说道。但他现在对这个决定表示后悔。
Kogan开始对心理测量中心的数据及其模型非常熟悉。他甚至是Kosinski论文的审核人。然后,2014年,在Stillwell和Kosinski里程碑式的论文发表一年后,Kogan和他的合伙人Joe Chancellor推出了一家名为Global Science Research的公司。它的客户SCL Elections(即后来的剑桥分析公司),希望Kogan能够与心理测量中心合作,收集有关美国选民的Facebook数据,并用它来理解人们的人格类型,从而达到政治广告的目的。但是,Kogan、Stillwell和Kosinski之间的关系很快就让合同谈判遇到了问题,因为这样的谈判结果会让心理测量中心的预算比原来讨论的少得多。Stillwell和Kosinski最终拒绝与Kogan合作,此后,该校让Kogan签署了一份法律文件,称他不会使用该校的任何资源(包括其数据)用于其业务。
“我们只是在观察接下来会发生什么?”Rust说。
接下来发生的事情就是突发新闻的推送提醒。2014年夏天,Kogan和Chancellor招募人们通过他们自己的应用(名为This Is Your Digital Life)进行人格测验,从而获得他们的Facebook数据以及数千万好友的数据。在那个夏天,虽然Facebook禁止销售数据,但他们仍然积累了5000万条记录,其中3000万条销售给了剑桥分析公司。Kogan坚持说他不知道违反了Facebook的政策,他认为公司很少执行。
正如Rust从与Kogan合作的博士生那里听到的信息,他说他越来越担心。与此同时,曾在2015年持续报道Kogan方法的一位《卫报》编辑,开始四处探寻,不断向Kogan、Stillwell和Kosinski提出问题。根据相关的电子邮件,研究人员担心他们的工作将会与Kogan的工作混为一谈。于是,在2014年底,Rust决定提醒剑桥大学。
上周四,Aleksandr Kogan走进中央公园南面的一家星巴克咖啡店,穿着扎克伯格式的浅蓝色T恤和牛仔裤。他和他的妻子自从11月以来一直住在纽约,就像他说的那样,这一丑闻好比“一颗核弹”掉进了他们的生活。今年3月,《纽约时报》和《卫报》首先制作并报道了有关Kogan的头版新闻,并导致他被Facebook所禁止。该公司一再将Kogan视为一个非常糟糕的苹果,并试图利用他的俄罗斯血统和与圣彼得堡大学的研究联系,指责他是俄罗斯间谍。现在,当他在剑桥等待他的合同到期时,他知道他在学术界的职业生涯已经结束了。
“这对我个人而言并没有什么好处,”Kogan大声说道。这也是他会成为一个糟糕间谍的原因之一,他笑着补充道。
Kogan已在英国议会面前作证,周二他也将出席参议院听证会。当他进行作证时,他将提供一个与Rust不同的事件版本。对于不了情详情的人来说,Kogan一再声称Stillwell和Kosinski预测人的个性和其他特征的方法实际上并不是那么有效。这种说法很难与Kogan将这些方法出售给剑桥分析公司的事实一致。然而,他并不是唯一一个提出这一说法的人。熟悉剑桥分析公司工作的其他学者和政治工作者也指责该公司在做危险的事。
Kogan还表示,Rust正在撰写的是一个经过修改的故事。他说,心理测量中心一直希望能够参与该项目,但在合同谈判破裂后,选择去当了举报人。“当他们无法回到这个项目时,他们就说‘这是一种违背道德的行为,’”Kogan讽刺地说道。“从来没有如此贪婪的人。”
但他承认,如果当时他们注意到Rust的警告,那么事情可能会变得更好。他也承认,当他吞噬这些数据时,他对公众反弹的风险一无所知。他对他制造的混乱感到抱歉。“如果人们不高兴,那么的确是我们做错了什么,”他说。
但他坚持认为他不是唯一一个。他认为,核心问题并不是“心理测量中心”出现“不好的事情”,而是Facebook将多年来对用户数据的监控力度降至了最低。该公司曾表彰了Stillwell和Kosinski的工作。它聘请了Kogan的合作伙伴Chancellor进入研究团队,并为Kogan的研究提供了专门的数据集。现在,Facebook反而坚持表示,自己不知道这些学者可能违反了其政策。
Facebook的Archibong说:“我们对可能发生的违规行为不了解。这是我们现在加紧调查的原因。”
剑桥大学表示它也在进行自己的调查。“我们正在对这个案件的所有可用信息进行广泛的审查,”一位发言人说。“如果审查中出现任何内容,或者我们向Facebook发出请求,大学将根据我们的政策和程序采取任何必要的行动。”
但对于Kogan来说,成为替罪羊只是一种干扰策略。如果剑桥分析公司自己收集了数据,而不是从Kogan那里购买数据,那么没有人会违反Facebook的政策。然而,数千万人的数据在他们不知情的情况下仍然会被用于政治目的。Kogan说,这是Facebook和监管机构必须解决的更深层次的问题。至少在这一点上,他和Rust的观点是一致的。
自今年春季以来,Facebook已经暂停了该中心曾经接触过的所有应用。Archibong表示,如果公司没有发现任何违法行为的证据,该公司将恢复这些应用,但这可能需要一段时间。Facebook在等待自己的审计之前正在等待英国信息专员办公室的调查。与此同时,该公司不会评论心理测量中心的应用可能违反了哪些政策,从而使研究人员陷入僵局。
心理测量中心业务发展总监Vesselin Popov说:“这只是一些公关的说法,透露他们正在做一些事情。”
除了myPersonality之外,Facebook还暂停了一个名为YouAreWhatYouLike的应用,该应用是与一家名为CubeYou的公司合作开发的,该公司也被禁止访问Facebook。(Facebook说CubeYou因为“与与心理测量中心的可疑违规关系”而被暂停)。该应用向人们展示了来自Facebook点赞的个性预测,以及对他们好友的预测。根据CubeYou的说法,该公司从未出售过这些数据,但是根据Facebook当时的条款,它获得了用户的同意,可以匿名方式进行存储和分享。Facebook还暂停了该中心开发的名为Apply Magic Sauce的工具。它包括一个可以让用户进行个性测验的面向消费者的应用,以及一个API。企业可以使用该API将该中心的个性分析模型应用到他们自己的数据集中。该中心表示,它从未出售过这些数据,不过它的确通过向企业出售API进行了盈利。
Popov认为,Facebook的决定极大地降低了该中心进行社交媒体研究的能力,这一点至关重要。“Facebook的回应之一是我们将成立一个学术委员会,我们将资助并与我们认为值得的高级学者合作,”Popov说。“对我而言,这是一场彻头彻尾的闹剧。这是造成问题的人假装他们是修理的人。“
当然,Facebook的领导者可能会对心理测量中心的研究人员说同样的话。今年5月,《The New Scientist》报道称,虽然Stillwell和Kosinski设立了严格的条款,但他们所收集的数百万匿名记录的登录凭据已被另一所大学的学者上传至Github。这些数据被暴露了四年。Stillwell拒绝就这个故事发表评论,但在该应用网站的一份声明中,他写道:“在九年的学术合作中,这是唯一出现这种情况的例子。”这一违规行为表明,即使是善意的开发人员也无法保证Facebook数据共享后的安全性。
如果Rust承认任何责任,那就是他没有预见到他的部门进行的滥用Facebook数据的研究,实际上可能会激发人们滥用Facebook数据。当然,即使他有预见到,他也无法完全确定会阻止。“我想在剑桥,如果你知道你所做的研究是开创性的,那它总是可以用于好或坏的目的,”他说。
Rust说他正在配合信息专员办公室的调查。信息专员Elizabeth Denham不会评论这个故事,只是说她正在考虑Facebook对该中心的指控。然而,Rust表示,他向Denham的办公室提交了电子邮件和其他文件,并试图给他们留下对人工智能领域监管监督迫切需求的印象。
“人工智能实际上有点像一个精神病患者,”他说。它善于操纵情绪,但在道德上不发达。“从某种意义上说,机器有点像这样。它们正在经历一个道德发展的阶段,我们需要看看AI在道德发展方面会发生什么。”
当然,当Rust说“我们”时,他不是在谈论自己。他计划明年退休,将解决这个问题的工作交给他希望能够渡过目前混乱局面的部门。作为一个74岁的人,他早过了退休年龄,但即便如此,想要离开这些事情并不容易。当他反思他留下的遗产时,他看起来很忧郁。
“你来到学术界试图解决世界上的问题,并研究大脑的工作方式,”他说道。“十年后,你会说'我的下一篇论文将获得下一笔奖金,因为我想成为一名讲师或高级讲师。'只有当你从另一端出来时,你才会说:'我的生活到哪里去了?'“
他来到这个领域,开始讨论为什么使用数据来排序和组织人类可能最终导致他们分开。令人沮丧的是,世界上一些最有影响力的人士被视为恶棍,他感谢这个期待已久的关于数据隐私的讨论终于开始了。
“我们正处在一个可以沿着多个不同方向前进的时间点。它可能会是老大哥,或者勇敢的新世界,在那里,一群人可以完全控制和预测每一个人的行为。或者我们必须制定一些监管制度,允许这些新创造的事物与我们一起发展,“他说。“如果我们所做的任何事情都影响到了这一点,那就是值得的。”