猎云网注:数字信任体现在四个维度:一是安全的维度,产品服务安全可靠,包括网络安全、个人隐私安全等;二是透明的维度,保障用户的参与和知情;三是责任的维度,确保相关主体负责任地提供产品服务,并为其行为承担责任;四是伦理的维度,秉持正确的价值观,不作恶。在数字文明下,科技伦理旨在维护、促进数字信任,呼吁践行科技向善,让大数据、人工智能等数字技术最大程度地造福于人类和人类社会。文章来源:腾讯研究院(ID:cyberlawrc),作者:曹建峰。
2019年全国两会正当时。今年的《政府工作报告》首次提出“智能+”这一全新概念。并提出“深化大数据、人工智能等研发应用,壮大数字经济”,同时要求“加快在各行业各领域推进‘互联网+’”。两会上科技热度不减的同时,是社会各界对人工智能等前沿技术越来越多的伦理思考和探索。
《政府工作报告》在要求“加大基础研究和应用基础研究支持力度,强化原始创新,加强关键核心技术攻关”的同时,提出“加强科研伦理和学风建设”。表明国家对前沿科技领域的伦理建设的高度重视。
科技伦理也是人大代表和政协委员积极关注的话题,诸多建议案涉及大数据、人工智能、基因编辑等前沿技术的法律、伦理和社会问题。3月6日,全国人大代表、腾讯公司董事会主席兼首席执行官马化腾向全国人大提交了7份建议案,其中就包括《关于加强科技伦理建设 践行科技向善理念的建议》。
马化腾认为,科技伦理是创新驱动发展战略、数字中国建设、数字时代商业竞争的重要保障。他呼吁在全社会、全行业积极倡导“科技向善”“负责任创新”“创新与伦理并重”等理念。并建议加强科技伦理的制度化建设,针对相关新技术制定伦理准则并积极参与、推动新技术领域的全球治理;加快研究数据、人工智能、基因编辑等新兴技术领域的法律规则问题;加强科技伦理的教育宣传并鼓励全社会践行“科技向善”理念。
他在接受媒体采访时表示,对于个人数据利用与隐私保护、个性化推荐算法的规制、AI、基因编辑等科技伦理、机器人的责任等前沿热点问题,需要公众、学界、业界、监管部门等社会各界积极进行交叉学科、跨界的研究和研讨,但对前沿技术的治理需要避免两个极端:放任不管和过早过度监管。
要言之,在科技创新进入深水区,经济社会全面数字化、智能化的今天,深入研究新技术应用及其影响,已经成为摆在全人类面前的重大课题。在利用科技这一强大手段推动经济社会发展的时候,只有发挥好科技伦理对科技创新及其应用的调节、引导和规范作用,才能促使科技活动朝着更加有利于人类和人类社会的方向发展,实现科技向善的目的。在这个意义上,科技创新是手段,科技伦理是保障,科技向善是目的,三者相互配合协调,缺一不可。
科技伦理为科技创新及其应用划定底线和边界以确保向上向善的发展方向
以史为鉴,创新而无伦理(innovation without ethics),就有可能导致广泛的负面影响甚至灾难性后果,如生物武器是,所以上世纪七十年代联合国制定了《禁止生物武器公约》。如今,科技创新进入深水区,以新一代信息技术(大数据、人工智能、虚拟现实、IoT、5G等)和生物技术(基因编辑、神经技术等)为代表的新技术加速发展并广泛运用,有望重塑人类和人类社会。在这个过程中,各种不确定性和不可控因素将大大增大。
对于未来可能出现的通用人工智能和超级人工智能,如果不加约束地发展应用,就有可能威胁到人类整体的利益,已故的霍金和埃隆·马斯克、比尔·盖茨等都表达了类似的担忧。这并非危言耸听,国际社会已在积极推动AI伦理研究并争取最大范围的共识。因此,亟需为新技术应用划定伦理底线和边界,以确保向上向善的发展方向。
而且近些年来,突破伦理底线的行为时有发生,如去年11月底发生的基因编辑婴儿事件,涉事者严重违反有关法律法规和伦理准则,实施国家明令禁止的以生殖为目的的人类胚胎基因编辑活动,在国内外引发了强烈的谴责。这更是彰显了科技伦理的重要性。
一方面,科技伦理可以使科学技术的应用得到明确的道德理性的引导,从而最大限度地减少出于邪恶目的利用科技成果的可能性;另一方面,作为道德理性的科技伦理又可以弥补单纯的科技理性之不足,增强科技工作者对于科技开发之后果的道德责任感,从而以道德理性的自觉来最大限度地消解科技理性在社会负面作用上的不自觉。
显然,新技术集群正在推动人类文明迈向新的阶段,有人称之为数字文明、智能文明、生命3.0等。然而正如基辛格所言,面对人工智能的兴起,人们在哲学、伦理、法律、制度、理智等各方面都还没做好准备。
人工智能等技术变革正在冲击既有的世界秩序,我们却无法完全预料这些技术的影响,而且这些技术可能最终导致我们的世界所依赖的各种机器为数据和算法所驱动且不受伦理或哲学规范约束。所以需要新的伦理规范来对科技创新及其应用形成积极的引导、规范和约束,以保障智能社会不失序、不失范、不失常。
在2019年1月11日腾讯研究院举办的第二届“科技向善”年度论坛上,腾讯研究院院长司晓表达了类似的看法。他认为,正如44年前的阿西洛马重组DNA会议达成了后来成为美国国立卫生研究院制定的《有关重组DNA分子研究的准则》的重要基础的自愿性伦理指南,从而保障重组DNA技术健康发展应用一样,如今人们需要就AI技术应用的潜在影响及其规制达成类似的伦理规范,以便将技术发展框定在有益于人类的、向善的范围内。
所以,面对新技术发展的不确定性,人们需要超越狭隘的技术向度和利益局限,加强对科技伦理的重视程度,通过预警性思考、广泛的社会参与和多学科评估来充分讨论可能存在的风险和危害,制定出切实可行的指导方针和伦理准则来引导、规范新技术研发应用,以更好地应对前沿领域技术应用可能引发的社会治理危机。
欧盟、英国、德国已在积极制定人工智能、自动驾驶等领域的伦理准则和指南,并推动相关国际标准、规则的制定;如今,我国的科技硬实力不断得到提升,尤其是在互联网领域呈现出活跃的创新发展氛围,另一方面应加强相应的软实力建设,加快研究启动前沿领域的科技伦理建设,积极参与、主导新技术领域的全球治理,进一步增强我国在国际规则设定方面的影响力和主导性。
科技伦理在互联网新技术治理中将发挥越来越重要的自律作用
2018年绝对称得上是互联网发展过程中的分水岭,一些影响重大的事件让人民开始反思互联网的发展方向和潜在变革。如Facebook-剑桥分析数据丑闻成为当之无愧的年度事件,直指数据的泄露、滥用、不正当二次利用等突出问题。此外,算法歧视、假新闻、信息茧房、人工智能滥用等问题也得到持续的关注。对此,存在加强监管、制定立法的呼声。
但正如北京大学法学院教授、副院长薛军在《数字经济立法与执法应当审慎、包容》一文中所言,由于技术以及商业模式快速发展和迭代,草率的立法,不可能期待会产生正面的效果;除了法律之外,也完全可以通过国家标准、行业公约、最佳实践、技术指南等“软法”性质的规范来调整数字经济领域的事项。[1]
国内外的互联网科技公司也在积极思考如何通过技术手段来解决技术应用带来的问题,加强平台整理;比如YouTube利用内容识别措施来主动打击其分享平台上的盗版内容,Facebook利用人工智能识别假新闻、暴恐、色情等非法活动和内容,都取得了显著的效果。
因此,作为对技术应用的“软法”规制,可以通过科技伦理来对科技行业的狭隘的技术向度和利益局限进行纠偏和矫正。而且考虑到当前技术发展的特征,科技伦理在预防和缓解新技术、新业务带来的风险挑战方面将发挥越来越重要的作用。因为法律规范本身具有滞后性,难以跟上技术发展的步伐,造成许多规范真空地带,而科技伦理可以更好地发挥事前引导作用,将技术发展引向向上向善的健康发展轨道。
另一方面,科技伦理水平直接衡量着科技发展的成熟度,完善的科技伦理制度意味着能够更好地防范、缓解科技发展应用带来的负面影响,从而营造积极健康的发展氛围。所以美国等西方国家的科技行业都具有较为完善的科技伦理相关的自律管理机制,主流科技企业内部建立伦理审查机制,行业组织积极制定行业标准,通过多种伦理自律措施防范技术滥用和其他风险挑战。
尤其是近几年来,谷歌、微软、Facebook、DeepMind等科技公司多举措加强人工智能伦理的自律建设,包括发起成立行业组织(比如Partnership on AI),成立伦理部门(比如伦理委员会),提出人工智能伦理和技术相关的原则、准则、指南、最佳实践等,加强人工智能伦理与社会研究,等等。
就我国而言,当前需要加强科技伦理的制度化建设,发挥科技伦理的行业自律作用,通过伦理审查、自律组织、行业标准、最佳实践、技术指南等方式来支持、促进行业自律,以确保科技发展应用的正确方向。而立法与执法应当坚持审慎、包容的指导思想,
前沿技术领域的社会治理离不开健全的科技伦理教育、广泛社会参与和跨学科研究
44年前的阿西洛马重组DNA会议彰显了科学共同体在应对新技术发展的不确定性决策中的重要作用。现代科学技术与经济社会以异乎寻常的速度整合和相互建构,但其高度的专业化、知识化和技术化使圈外人很难对其中的风险和不确定性有准确的认知和判断,没有来自科学共同体内部的风险预警和自我反思,任何一种社会治理模式都很难奏效。[2]
而这需要科研人员具有良好的科技伦理意识。但当前我国各级各类教育中普遍欠缺科技伦理,这在某种程度上导致我国个别不良科研人员和企业伦理意识淡薄,在技术研发与应用的各个环节没有很好地把握伦理边界,才会导致发生基因编辑婴儿、数据和算法滥用、恶意竞争等伦理事件。
因此需要通过完善的科技伦理教育机制来使科研人员进行科技伦理的熏陶、探索与反思,从“他律”走向“自律”,秉持向上向善之心,追求至善,不仅仅局限于把技术和产品搞出来,而是更多地思考他们开发的技术和产品的广泛社会影响,肩负起科技进步和社会发展的责任,确保未来方向。
在另一个层面,只有通过科技伦理教育宣传增进科研人员和社会公众在伦理上的自觉,使其不仅仅考虑狭隘的经济利益,而且对技术发展应用的潜在影响及其防范进行反思和进行预警性思考(precautionary thinking),才有可能通过广泛社会参与和跨学科研究的方式来实现对前沿技术的良好治理。
科技伦理推动互联网发展从获取用户注意力向促进用户数字福祉转变
如今,全球42亿人接入了互联网,占世界总人口55.1%,中国以8亿网民成为全球最大互联网市场。各种智能机器成为人类社会不可或缺的一部分,和我们的生活和生产息息相关,但却可能给个人带来诸如网络过度使用、信息茧房等负面影响。
相关研究已经开始思考数字技术可能会对我们的健康、思维、自主性等产生什么样的负面影响,尤其是数字技术对未成年人的潜在影响。此外,随着个性化推荐算法在互联网领域的广泛应用,人们也开始担心推荐算法也可能给用户带来网络过度使用、信息茧房、算法偏见等负面影响。
比如,限制用户对信息的自由选择,将用户置于算法建立起来的泡沫之中,只接触到自己喜欢或认同的内容,从而可能给用户造成信息茧房、自我封闭和偏见,进而影响用户的思维模式并可能扭曲用户的认知,并不利于用户的长远发展。
因此,在互联网发展二十多年后的今天,互联网创新的发展模式需要从获取用户注意力向促进用户数字福祉转变。
数字福祉(digital wellbeing)有两大内涵,一方面是人人都可享受到数字技术带来的便利和红利,最大化地实现普惠和赋能;另一方面是促进个人对数字技术和网络服务的高质量使用,减小、防止数字技术对个人的负面影响。我们看到,互联网科技公司已在积极践行数字福祉理念。
比如,Android P版推出的Dashboard功能,通过统计用户的屏幕时间,帮助用户控制手机和网络使用,防止过度沉迷,实现数字福祉(digital wellbeing)。iOS 12推出了“屏幕使用时间”功能,同样意在帮助用户将手机和网络使用控制在合理的限度,防止过度使用。Facebook则发布了“数字福祉”工具,允许用户监测自己花在社交网络上的时间并设定时长限制,同时更容易地关闭推送通知。
总之,科技伦理要求科技公司不仅关注互联网创新,更要关注如何在创新过程中通过创新来促进用户的数字福祉,并依循“经由设计的数字福祉”(digital wellbeing by design)理念,将对用户数字福祉的保障和促进融入到产品和服务的设计中去。
科技伦理最终是要实现数字信任(digital trust),践行科技向善
信任是一切社会的基础,数字信任是数字社会的基础,需要依靠社会习俗、伦理道德、法律规范等一起来协同构建,以保障数字经济社会的健康发展。数字信任体现在四个维度:一是安全的维度,产品服务安全可靠,包括网络安全、个人隐私安全等;二是透明的维度,保障用户的参与和知情;三是责任的维度,确保相关主体负责任地提供产品服务,并为其行为承担责任;四是伦理的维度,秉持正确的价值观,不作恶。在数字文明下,科技伦理旨在维护、促进数字信任,呼吁践行科技向善,让大数据、人工智能等数字技术最大程度地造福于人类和人类社会。
腾讯作为一家负责任创新的公司,也在积极思考科技伦理,并践行科技向善。在数据保护方面,2018年12月腾讯发布《腾讯隐私保护白皮书》,倡导“数据有度”的隐私保护理念,视安全、透明和可控为隐私保护目标,并提出了P·B·D隐私保护方法论。
在人工智能研发应用方面,腾讯提出并倡导人工智能“四可”理念,即可用、可靠、可知、可控(英文简写为ARCC,寓意“方舟”)。正如传说中拯救人类文明的诺亚方舟一样,人工智能领域的ARCC也将在未来的人工智能时代尤其是可能到来的AGI和ASI时代,确保人类与机器之间友好、和谐的关系,最大化地促进人类的发展,并避免潜在负面影响。
在科技向善方面,腾讯一贯重视用户的数字福祉,一直致力于让所有人都能平等、方便、无障碍地获取并利用信息,几乎全系列产品都有了“信息无障碍”版本。腾讯为此获得了联合国教科文组织颁发的“数字赋能残疾人奖”。
此外,包括腾讯视频的护眼模式在内的多项创新模式旨在切实保障用户尤其是青少年用户的数字福祉,同时腾讯采取多种措施在游戏等产品中加强对未成年人的保护。此外,腾讯于2018年初发起“科技向善”项目,倡导并践行科技向善理念,已将人工智能技术应用于医疗健康、农业、能源等领域,促进社会福祉。
最后,作为总结,需要再次重申,科技创新是手段,科技伦理是保障,科技向善是目的,三者配合才能确保向善向上的发展方向,最大化促进人类福祉。在数字技术广泛渗透和创新技术加速涌现的今天,我们需要更多的伦理关切和预警性思考,来实现技术、人、社会之间的良性互动和可持续发展。
尾注
[1] https://news.caijingmobile.com/article/detail/385560?source_id=40
[2] http://www.cssn.cn/zhx/zx_kxjszx/201312/t20131224_924411.shtml