自2016年人工智能围棋AlphaGo击败李世石以来,新一轮人工智能热潮以前所未有的态势席卷世界。在各国纷纷提出人工智能发展规划和战略的同时,人工智能的伦理风险与治理也成为全球共同关注的焦点。在全球范围内,人们对人工智能前景的认知明显地呈现出两极化——一方面对其可能极大促进经济社会发展的预期兴奋不已,另一方面对其可能带来的破坏民生等危害与风险愈益担忧。在亚洲,尽管在公众认识和法律层面对于隐私、数据权利、歧视等相关价值诉求和权利界定不甚明确,伦理与治理框架也尚未系统构建,人工智能创新与应用却十分迅猛,这一张力使人工智能发展中的价值冲突与伦理抉择变得更为突出。
国家人工智能战略优先事项的热图(来源:CIFAR,2018)
“亚洲人工智能议程”是《麻省理工技术评论洞察》研究项目,2019年7月发布的这份题为《亚洲人工智能议程:人工智能伦理》的报告作了较为客观的评述。该报告是其“亚洲人工智能议程”系列报告中的一种,报告基于对包括871位高管在内的亚洲人工智能生态系统内外权威人士的调查与采访,其洞察大致体现了亚洲人工智能伦理议程的当下发展与未来态势报告,对亚洲与全球人工智能伦理与治理框架的进一步反思及构建具有较大的参考价值。
亚洲立场下的人工智能伦理与治理
近30年来,在追赶信息通信技术和网络数字技术的过程中,亚洲地区成为全球科技进步最快的区域。如今,在迈向全球人工智能发展的快车道上,亚洲无疑比四分之一个世纪之前拥抱互联网时更为主动和自信。面对这一波的人工智能热潮,曾以新兴科技带动社会发展的经验,再加上经世致用和民生优先的文化传统,使亚洲地区的政府和企业对人工智能的基本立场更为乐观,也更具实用主义色彩。从这一立场出发,不仅亚洲人工智能生态系统的成员对人工智能的好处充满信心,而且在整个社会也自然地形成了相对有利于人工智能探索的制度文化环境。
但我们应该看到,人工智能的伦理风险并非虚构,数据分析、内容推荐、人脸识别等应用直接涉及和影响到人的身份和行为,相关技术的滥用对人造成的危害和负面影响将远远大于传统的网络与数字技术。如果不加反省地固守这一立场,人工智能对社会和个人造成的潜在威胁往往容易被忽略或无视,由此所引发的伦理风险,既得不到事先防范也难以事后纠正,最终非但会酿成严重后果,还会破坏整个社会对人工智能的信任,打击普通公众对发展新兴科技的信心。报告对这一立场下亚洲人工智能伦理和治理中的问题作了较为深入的剖析。
首先,亚洲对人工智能的乐观主义与实用主义的立场,给人工智能伦理和治理带来了巨大挑战。报告指出,尽管亚洲的商业领袖与人工智能生态系统的参与者已认识到人工智能应用可能带来潜在伦理风险,但在总体上对于人工智能为经济、社会、企业和个人福祉带来的积极影响更加乐观。由此带来的问题是,“来自亚洲的战略在伦理方面的优先级相对较其他地区低”,甚或“在亚洲使用人工智能的偏见可能更为严重”。针对这一问题,有人可能会提出应该强调伦理优先,但实际上不一定要将创新与伦理对立起来;伦理是不是应该得到优先考虑,取决于具体的技术应用对相关群体的负面影响及其严重程度。因此,有效克服这一问题的关键在于:一方面,技术监管者应该要求企业对技术应用在相关群体中造成的负面影响展开预见性的伦理评估,进而对其加以矫正;另一方面,应该通过建设性与参与性的伦理评估,使可能因技术应用而受到严重负面影响的相关群体参与到相关的伦理评估、争论与矫正等环节之中。
其次,亚洲人工智能伦理和治理的最大挑战在于,如何以包容审慎的监管实现伦理与创新的协同。报告指出,虽然亚洲人工智能生态系统中的企业等居于主导地位的利益攸关者对人工智能伦理进行了激烈的辩论,并认为政府应该主导对人工智能的监管,但多少有些矛盾的是,他们又希望相关政策、框架和监管应审慎行事,“而不能扼杀创新”。针对这一问题,不应错误地将伦理上的相对宽松视为创新的“伦理优势”,而应该认识到,对于那些具有高度价值敏感性的人工智能应用,应该努力寻求一种将伦理价值融合到技术之中的复合创新,从而使创新与伦理相辅相成、协同并进。根据这一思路,在内容推荐中,一些企业已经开始通过对算法推荐的一些不良内容的识别与抑制打破“信息茧房”;为了应对人脸识别技术的滥用,出现了随机换脸等许多旨在保护隐私的对抗性设计。实际上这种道德敏感设计——将伦理道德内置于技术设计的做法很早就有,十多年前卡内基梅隆大学就有研究者通过设计的软件帮助人们堵住网上的隐私漏洞。由此可见,人工智能的伦理和治理可以贯穿于人工智能创新应用的全过程,为了实现伦理与创新的协同,要将其背后的价值观转换为技术层面的目标与需求。
其三,亚洲试图以信任机制的建立而不是执法框架的构建作为人工智能伦理与治理的突破口。报告强调,尽管亚洲各国政府和企业正在更加积极地为人工智能行业的伦理发展制定目标和指导方针,但迄今为止尚无监督或执行机制。亚洲的政策制定者既不试图直接解决伦理问题,也不为之提供法律支持和追索权,转而诉诸消费者、人工智能用户和人工智能开发商之间的信任,以使整个行业得到发展。毋庸置疑,持续的信任机制的构建要求人工智能必须以一种负责任和透明的方式发展。在当前的人工智能涉及大量数据驱动的智能应用,其中所涉及的与人相关的数据反映了人格特征、行为方式和具体行为,企业必须就如何恰当地收集、使用和共享数据与客户及利益攸关者展开沟通,才可能避免用户的疑虑和不信任,使创新与应用高效有序地展开。
12种新兴技术的感知效益和负面后果
构建切实可行的人工智能伦理与治理框架
近二十年来,发展迅猛且具有高度不确定性的新兴科技不断涌现,由此产生了人工智能、物联网、基因编辑等可能对经济社会与人类未来造成根本性、深远性、普遍性影响的颠覆性技术,如何针对人工智能等技术构建切实可行的伦理与治理框架无疑是各个地区与国家所必须面临的最大挑战。对此,既没有最佳答案,也没有统一标准。但透过这份报告中所汇集的诸多经验与智慧,我们无疑可以获得诸多构建这一框架的有益线索。
一是要对人工智能可能造成的社会影响进行更加深入系统的研究,在此基础上构建起考虑到最坏情形的社会风险防范机制。其中最为重要的问题是人工智能对就业的影响。在报告中,尽管亚洲的商界领袖普遍认为,人工智能驱动的失业困扰将被人类工作的潜力所抵消,但根据与该报告同系列的“人工智能与人力资本”的报告也指出,“人工智能将影响到每五个亚洲工作岗位中的一个,而自动化将淘汰八分之一的工作”。后者还发现,建立在劳动密集型工业和服务业基础上的新兴亚洲经济体的劳动力“可自动化”的比例较富裕国家更高;而且那些受到人工智能威胁的低技能职业阶层再培训和再提升技能的能力更弱。这些分析表明,在人工智能生态系统对未来普遍乐观的情况下,政府所主导的人工智能伦理与治理框架必须看到最坏的情形,充分考虑到可能被智能机器替换的劳动力的出路,以此避免人工智能的颠覆性发展带来新的社会不平等。
二是要从文化出发构建一种兼具区域性与全球性的人工智能伦理与治理体系框架。报告中颇有洞见地指出,由于在表达伦理的“正确”方式上存在着巨大的文化差异,人工智能伦理与治理并没有“全球性”。毫无疑问,人们对人工智能的不同态度确定了不同区域与社会发展人工智能的不同方法和旨趣。以前卫的性爱机器人为例,具有神道教传统与丰富的人偶文化的日本可能更容易接受其研发与应用。在未来的无人汽车等智能无人系统中,个人主义与集体主义等不同社会主流价值导向也会在一定程度上影响机器的价值取向和伦理抉择。因此,文化和价值观上的可接受性是构建人工智能时代的人机信任和人机和谐的关键所在。
但与此同时,必须指出的是,人工智能的发展必然会加速推进更深层次的全球化,区域性的人工智能伦理与治理不仅要具有局域的适切性,还应该建立起通达全球治理的机制。在中国的《新一代人工智能发展规划》中,不仅设想通过人工智能提高社会管理能力,还承诺对隐私与知识产权、信息安全、问责、设计伦理等展开研究,并积极参与全球治理。在此过程中,如何讲清区域性伦理与治理框架的核心价值取向和伦理诉求是关键,不论在什么文化和社会主流价值观下,都必须对人工智能时代的隐私、尊严、个人权利等基本的伦理与法律概念做出明晰与合理的诠释,都要对数据的采集与使用、智能系统对人的行为的影响与干预的限度做出合乎伦理与法律的准确陈述。而对这些问题的深究最终所涉及的与其说是价值和伦理问题,毋宁说关乎更大社会历史背景与文化语境下的社会政治抉择,这就使得区域性的人工智能的伦理与治理框架之间的对话成为其整合为全球性治理架构的难点和关键所在。
三是要在构建人机和谐的未来的同时确保人类和平这一文明底线。在我们试图通过人工智能发展构建人机和谐未来之时,应该认识到人与机器的关系实质是人与人以机器为中介的关系,对人工智能等技术的伦理规制和治理的关键是避免其对人作恶。因此,人工智能的伦理与治理要对人工智能的恶意使用和军事运用等负面用途加以必要的法律管制、伦理规制全球治理。随着深度造假等技术的发展,人工智能的恶意使用会越来越大,如果不加以及时的法律管制和伦理规制,必将极大地破坏整个社会对人工智能等颠覆性技术的信任,影响其有益的创新与应用。
同时,应该看到,人类科技文明发展的悖谬之处恰恰在于包括计算机、互联网和人工智能在内的很多颠覆性的技术与军事对抗和国家竞争密切相关。我们必须承认,在这一波的人工智能热潮背后,或明或暗地存在着人工智能军备竞赛的阴影,无人机以及大规模智能自动武器系统等人工智能的军事应用,将对人类文明的未来造成前所未有的威胁,必须得到有效的控制和全球性的治理。
结语:走向敏捷的人工智能伦理与治理
2019年6月17日,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的创新》,提出了“和谐友好、公正公平、包容共享、尊重隐私、安全可控、共担责任、开放协作和敏捷治理”等八项原则。其中的敏捷治理强调,应在人工智能的发展中及时发现和解决可能引发的风险、推动治理原则贯穿人工智能产品和服务的全生命周期、确保人工智能始终朝着有利于人类的方向发展。而实现这一原则的关键在于切实将人工智能发展中的所有相关利益群体的认知纳入人工智能伦理与治理的各个环节,以此形成多相关方的对话与共识机制,实现从微观到宏观的反馈、修正与迭代,最终推动人工智能的未来沿着合乎人性的方向和谐发展。