猎云网10月8日报道 (编译:小白)
编者注:虽然不像电影《少数派报告》那么神奇,但是从天气到社交媒体上的消息等所有一切有关数据都可以用来预测何时何地会有罪案发生。这项技术由日本日立公司开发,将与华盛顿特区等城市合作,验证其实用性。
犯罪预防组织主管John Anderton(汤姆克鲁斯饰演)说道:“显然‘先知’已经看到了这一切。”这段话来自2002年斯蒂芬·斯皮尔博格执导的电影《少数派报告》(Minority Report),根据Philip K. Dick的1956年短篇小说改编而来。
现实中当然没有像影片中那三位因精神问题可以预知未来犯罪行为的先知,但是日本日立公司(Hitachi)近日引入了一个未来可预知犯罪行为的系统,这个系统通过大量的数据,从历史犯罪数据到公共交通地图,从天气预报到社交媒体对话等,来预测何时、何地可能发生犯罪行为。日立公司说,大概有6个美国城市将于10月份加入这项技术的概念测试,但是它并没有透露这些城市名称,华盛顿特区很有可能在其中。该公司已经给这些美国城市和一些加勒比地区国家的警察局提供了视频监控和传感器系统。在采访中,日立公司展示了部分案例——甚至还有软件的截图。
“我们系统里可没有电影里的那种‘人类先知’,”Darrin Lipscomb说道,他是Avrio和Pantascene这两家公司的联合创始人。Lipscomb的公司专注于开发犯罪监控技术,后来被日立公司收购。“如果我们确定先知的预测是准确的,我们当然可以把他们的预测结果应用到我们的模型中去,”他不动声色地继续说道。这个被称为“日立可视化犯罪预测分析(PCA)”的新技术的确可以从传感器和互联网等各种渠道获得信息数据。
然后,这个系统中也加入了机器学习的技术。采用热门的数据分析软件“R”,PCA可以通过处理这些信息数据发现容易被人类忽视的行为习惯。“人很难处理成千上万条可能影响犯罪的不同信息,”Lipscomb解释道,“比如天气、社交媒体、学校、地铁站/车站、枪击传感器和911紧急电话等。”
让数据说话
机器学习是人工智能领域一个新热门词汇。比起想方设法设计一个完美的电子系统,计算机科学家现在正研究搭建一个大型的分布式计算机系统,该系统可以通过筛选大量的数据、辨别模式和异常现象等来自我学习。机器学习得以实现完全仰仗于近来大型的低成本数据库和计算机处理能力的飞速发展,比如Amazon Web Service(AWS)、Microsoft Azure还有日立公司自己的HDS云系统——这些都可以支持日立的PCA运行。
Lipscomb和Mark Jules一致认为,在传统警力调遣中运用机器学习技术是一个巨大的转变。Jules是Lipscomb联合创始人,他们共同创办了Avrio和Panatscene。(现在,这两人都是日立公司公共安全与可视化部门的高管。)
然而,日立并不是唯一一家提供公共安全监控和预测服务的公司。但是使之区别于其他同类公司的地方在于日立声称他们引入了机器学习,用数据推动预测而不是基于已知的影响犯罪行为的重要因素来判断是否有罪案将发生。
Jule说,以往警探根据他们自己办案的经验来建立犯罪预知模型,比如学校的地点或者Twitter上发布的可疑信息。他们根据经验来判断每一个可变因素的重要性。但是日立的系统并不需要人来衡量哪些因素重要以及有多重要。“你只需要提供数据,”他说,“然后几周之后系统便可以得出其中的关联。”
他们还说,社交媒体在预知犯罪中有举足轻重的作用,至少提高了15%的准确率。日立使用了自然语言处理:即计算机能够消化并理解通俗文本或对话的能力。
系统应用了LDA模型(隐含狄利克雷分布,处理文档的一种主题模型),可以筛选每一条推文标签中暗示了可能发生事件的特殊地理位置信息。“比如作案团伙使用不同的暗号来碰头或者执行任务,”Lipscomb说,“尽管我不知道他们的暗号……但是通过我们的系统可以准确地找出某些奇怪的用语,比如有人经常使用一个跟主题无关的词,而且使用频率异常高,那么这个词是某种暗号的可能性就非常大。”
另外通过对社交媒体的研究,我们还发现邻居之间的紧张关系也很容易导致暴力行为发生。Lipscomb说:“我们正在与华盛顿特区的警方谈论这件事,他们表示邻居关系是他们案件调查的首要因果关系。”
“邻里之间的明争暗斗一直在这里发生,”他的同事Jules补充说,警方通常很难察觉到邻里之间紧张气氛与罪案之间的关系,当悲剧发生后显然已经太晚了。
PCA提供了高质量的视觉交互界面,彩色地图上面显示了各种不同犯罪行为指示图标,像枪支、手机和监控摄像头这些东西的图标尤其显眼。该系统可以定位到200米范围之内,并从0到100%给即将发生的事件表明危险指数。这个场景又让我们想起了电影《少数派报告》中的一个画面,Anderton主管站在一堆大屏幕前面,看着上面大量弹出的数据。
预防犯罪,是靠“老大哥”?还是去减少不应有的歧视?
看过《少数派报告》这部电影或者读过原著的人都知道事情发展到后来出现了严重的问题。我们不禁会问,万一日立的这个可视化犯罪预测分析系统出现了错误并给出了错误的预测,事情会变得怎么样?在故事中,没人会因为可能犯罪而被逮捕。但是这个系统会不会给把无辜之人贴上潜在犯罪分子标签呢?乔治·奥威尔在《1984》一书中描述了“老大哥”统治下的恐怖社会,我们当然不希望小说变成现实。
但是Lipscomb强调,PCA不会造成这样的可怕后果,至少比纽约市的“具有争议的盘查行为”要好得多。在纽约,警方可以随便盘查目标周边的任何人。(法律规定警方在调查怀疑目标时不应带有种族偏见,但是85%的被盘问对象是拉丁裔或非洲裔,数据来自纽约市律师协会。)“我们希望给公共安全提供有力可靠的工具,让执法机构有足够的信息去判断谁的犯罪嫌疑最大,”Lipscomb解释说,“我不需要警方去盘问可疑目标。我可以用数据和智能软件来帮助警方。”Lipscomb还说芝加哥警方从来不执行上述盘问行为,因此芝加哥很有可能成为下一个运用日立新技术的城市。
但是准确性的问题仍没有得到回答:这个技术真的可以预测正确的可能犯罪地点吗?Lipscomb承认现在他还没办法证明这一点。在未来的技术测试中,一些参与的城市将基于系统的预测采取行动,提前部署警力预防犯罪。
双盲实验也会同时进行。警察局将继续如往常一样办公,但是预测模型也会在后台独立运行。只有在过了测试期后,警方才能看到系统模型每天的预测结果,所以他们可以在时间框架上将预测和实际情况进行对比。日立承诺所有这些结果都将公开供各界研究审查。
“我们知道我们的方法或许比起其他一些方法更加具有创新性,但是我们并非是说我们的系统就更加准确,”Lipscomb说道,“我们希望和已有的客户合作来证实我们的系统真的行之有效,然后发自内心地说:‘看,这个系统真的可以预测犯罪行为。’”
Source:Fastcompany