在前一篇文章中我们已经提到,当下常见的关于智能技术伦理危害与风险的讨论总体上强调人工智能对人类整体的影响,并不凸显其对当前社会不同人群造成不同影响的情况,并且在分析这些风险时往往聚焦于技术层面,而并未将社会和政治层面的因素纳入考虑。从这个角度出发的分析难免失于片面,无法充分认识智能技术的潜在风险。由于缺乏一个全面的、结合科技与人文视角的研究框架,使得对于这一问题的研究普遍零散而不成体系,且容易陷入“机器 vs. 人类”的未来学视角。
例如在分析智能技术对就业造成的影响时,以Kevin Kelly为代表的未来学家认为人工智能取代人类工作是必然趋势,并乐观地相信“被失业”的人群能找到更有价值的工作。另一些研究者则认为应对大规模结构性失业的关键是社会保障,例如在就业之外提供全民最低收入保障。然而更早的计算机伦理学、乃至科技伦理学研究已经指出,就业对于人而言不仅是提供生活保障的方式。正如维纳在70多年前就已经指出的,人需要发挥创造力和灵活性,人需要做决策、需要感受到自己为社会与他人做出的贡献,而工作是满足这些需求、使人获得尊严与成就感的重要途径。如果只看到失业对收入的影响,忽视智能技术在其他方面对人的影响,便无法全面理解智能技术的潜在风险。
Peter Cullen提出了一个用于讨论伦理问题的框架。在这个框架中,抽象的“伦理”被表述为“价值观”——即个人与群体定义人生意义或集体目标所基于的核心信念与理想,随后价值观再以“原则”的形式具体表述出来,从原则引申出“政策”或“指导方针”,最后通过规则、流程、评估、培训、工具等方式得以“实现”。
早在1950年代,维纳就已经指出,在与自动化机器并存和协作这个上下文中,需要关注人的一些核心价值,例如生命、健康、快乐、安全、资源、机会、知识等。基于对这些价值观的重视,他提出了计算机伦理的4条基本原则:
- 自由原则:人应该有选择各种可能性的自由。
- 平等原则:不同的人群应该享有同样的权利。
- 博爱原则:人与人之间的善良愿望应该得到鼓励。
- 最小侵犯自由原则:团体对个人自由的侵犯应当限制在最低程度。
基于类似于这些被普遍认同的价值观和基本原则,在智能技术的上下文里,不同的研究者提出了大致相似的一些指导原则。例如IBM在“大数据与分析的伦理要求”中指出,技术本身可能是技术中立的,但技术的使用者不仅应该考虑技术的可能性、组织的诉求和法律的约束,还应该考虑一系列伦理的指导原则,包括适应社会环境、给人们选择的权利、使用合理的数据深度和广度、适当的数据和分析结果所有权、公正性、访问权、可追责等。再例如,King和Richards提出了几条大数据伦理规范:
- 隐私应该是信息规则的基础
- 分享出来的私人信息应该仍然保密
- 大数据需要透明性
- 大数据可能导致身份泄露
针对“隐私”这个受到广泛关注的话题,Rijmenam提出了几条大数据隐私指导原则:企业应该更主动地提供透明度;从系统设计之初就考虑简明性;为潜在的安全事故做好准备;在所有环节全面关注数据隐私。英国商业伦理研究所(IBE)则提出了6个与隐私相关的问题,包括数据如何使用、如何采集个人数据、如何评估风险、如何保护数据等。
除了隐私之外,另一个重要的问题是智能技术的可追责性(accountability)。正如Harpin所说,在社会越来越多地由算法运转的同时,机器学习等智能技术使支撑社会运转的算法变得越来越不透明。MIT的两位研究者指出,智能算法可能在人无法理解的情况下强化结构性歧视、拒绝为某些人群服务、甚至破坏民主制度的根基。因此他们提出了算法可追责性的五项指导原则:算法应该负责任、可解释、精确、可审查、公平。围绕着这五项指导原则,他们又提出了更加具体的实施策略,建议至少在系统设计、上线前和上线后分别进行一次评估,并列举了一些基本的评估问题。
这种将“系统生命周期”作为一个维度纳入伦理框架的方式,在Etlinger这里得到了进一步发挥,形成了一个二维的大数据伦理框架:数据使用的伦理原则(例如有益于人群、推动进步、可持续、尊重、公平)构成一个坐标,数据的生命周期(例如数据采集、处理、分析、存储、治理、使用、交流)构成另一个维度,两个维度交织形成一个完善的伦理框架。
伦理框架的落实仍然是一个难题。在层出不穷的新技术和新挑战面前,传统的机构审查委员会(IRB)明显缺乏大数据时代伦理判断的能力。与此同时,又有像ORCAA这样专门从事算法审计的企业。“数据与社会”研究机构的建议是,应对智能技术带来的伦理问题,需要政策、教学和业界网络共同努力。在“平等、可追责和透明的机器学习”研讨会上,研究者指出:平等和偏见等问题不是抽象的概念,而是与实际的人和人群相关的,因此智能技术的伦理问题必须由科技专家与人文学者共同研究,包括有意图地设计实验,才能深入理解问题并找到解决办法。