You are on page 1of 20

负责任的人工智能

(Responsible AI)
实用指南

pwc.com/rai
前言

如今大家都在谈论负责任的人工智能。不过要将这一言
论转化为行动,必需要相关组织设立人工智能使用的标
准。首先,人工智能的使用应该在各方面符合道德和法
规;其次,从开发到使用需要有一套健全的管理机制;
第三,需要强有力的监管机制来确保其使用时的公平公
正、通俗易懂、安全稳定。

负责任的人工智能 (Responsible AI) 实用指南


2
从自动化到增强现实,人工智能(AI)已在悄然改变商业运作的模式,部分公司也
已经进入了自动化时代。人工智能逐渐取代人类过去的工作,例如欺诈检测、简历
审查和贷款申请等。机器人减轻了员工的负担,让他们可以从事更高级别的工作。
医生在人工智能的帮助下,也能更快更准确地确诊。聊天机器人也可以代替客服人
员,回答客户简单的问题。

正是因为机器人可以扮演越来越多的角色,我们可以看到在未来,人工智能的潜力
是无限的,可以造福整个社会。各行各业的企业都渴望从潜在的人工智能机遇中
分一杯羹。据普华永道的研究估计,到2030年1,人工智能将为全球经济带来15.7
万亿美元的收入。

普华永道最近发布的《负责任的人工智能诊断调研报告》于2019年5月至6月期间
对大约250名企业高管进行调研。报告发现,不同企业对负责任和有道德的人工智
能的理解水平以及应用水平千差万别,其中大多数情况是不成熟的。报告还指出,
获取采用负责任的人工智能所需的技能充满挑战。

现在正在使用或试用人工智能解决方案的业务:

25% 只有 38% 只有 25%


没有考虑人工智能作为 认为人工智能和 会在投入前考虑人工智能
企业战略的一部分 企业价值一致 解决方案的道德影响

1
全球人工智能研究:抓住机遇

负责任的人工智能 (Responsible AI) 实用指南


3
消费者和企业领导
对人工智能的担忧
各不相同

负责任的人工智能 (Responsible AI) 实用指南


4
在人工智能开发利润可期的背景下,越来越多智能的人工智能系统和日益普及的
人机交互所带来的快速发展和大规模变革,也引发了商界领袖和消费者之间明显
不同的担忧。

消费者希望得到人工智能根据他们的需求定制服务的便利,同时清楚这些企业并
不会在他们不知情的情况下为他们带来不利影响——并且政府需要设定相关法
律规范消费者用户数据的使用。与此同时,企业也仍在探索人工智能带来了哪些机
遇,分析其潜在的风险。

84% 的CEO认为,人工智能做出的决策要有理有据
才可信。

最近普华永道发布的《全球CEO调研》中,发现高管们非常关注人工智能的风险
和机遇。其中85%的CEO认为人工智能将在未来五年内显著改变他们的商业模
式,近三分之二的CEO则认为人工智能的影响将会远远超过互联网变革。不过
关于人工智能的可信度究竟有多少,大家都没有明确表态。另外,超过四分之三的
CEO认为人工智能“有益于社会”,可是更多受访者(84%)认为,人工智能做出的
决策要有理有据才可信。

因此,显而易见,身居高位的CEO需要了解公司内部的人工智能项目,提出关键问
题,并在必要时采取行动管控,降低人工智能的各种潜在风险。这些风险包括偏见
决策、人工智能决策的解释说明、缺乏解释以及人工智能驱动系统是否可能取代
人。其他风险还包括更高层次的社会担忧,即人工智能可能会加剧贫富差距,甚至
对人类构成身体威胁,从个体伤害到具有大规模杀伤力的自动化武器。

负责任的人工智能 (Responsible AI) 实用指南


5
从5个重要层面
应对人工智能
带来的挑战

负责任的人工智能 (Responsible AI) 实用指南


6
除了这些风险,人工智能的崛起还带来了对信任和责任的挑战。若想有效地解决
这些问题,组织应了解人工智能的挑战和风险,并在其设计和布局时充分考虑这
些因素。
普华永道开发了一个全面的AI责任框架和工具包,帮助公司在设计和布局可靠的
人工智能应用程序时关注并解决这五个关键层面:

1 治理 2 道德规范

治理是全程管控的基础 其核心目标是帮助组织开发不仅符
合适用法规,而且符合道德的人工
智能。

3 解释说明 4 安全稳定

提供一种方法和实用程序,使得人 协助组织开发提供性能强大的人工智
工智能驱动决策操作员和受其影响 能系统,使负面影响最小化以确保使
的人能够对其进行解释说明。 用安全。

5 偏见和公平

解决公平公正问题——虽然没有对每一方都公平的决定,不过组织可以设计
人工智能系统筛除不必要的偏见,按明确的定义做出公平的决定。

负责任的人工智能 (Responsible AI) 实用指南


7
1 治理

负责人工智能的基础是全过程企业治理(见图1)。在最高层次上,人工智能治理
应帮助组织回答有关人工智能应用结果和决策的关键问题,包括:

• 谁负责?

• 人工智能如何与商业战略相结合?

• 可以修改哪些流程以改善输出?

• 需要采取哪些管制来追踪性能和查明问题?

• 结果是否一致且可重复操作?

从历史上看,治理功能只需要处理静态流程。不过人
工智能发展的过程是动态的、适应的,人工智能治理
也必须如此。

要能回答以上这些问题并对人工智能系统的结果做出回应,需要一种灵活和适应
性更强的治理形式,许多组织可能都不习惯这一形式。

从历史上看,治理功能只需要处理静态流程。不过人工智能发展的过程是动态的、
适应的,人工智能治理也必须如此。良好的AI治理基础将从整个组织的战略和规
划开始,也会考虑现有的能力和供应商生态系统,以及独特的模型开发过程、模型
监控和适配性。

负责任的人工智能 (Responsible AI) 实用指南


8
图1. 普华永道涵盖人工智能生命周期的企业治理框架

内部政策与实践 行业标准与规范 公司策略

1. 策略

综合管理 交付方法 项目监督

2. 规划
技术路线图

3. 生态系统
采购

改变管理

4. 发展

数据析取 解决方案 业务和数据


设计 理解

预处理

模型搭建
模式层面

5. 部署
模型集成 过渡和执行 持续监控 评估和记录

合规 运作支持

6. 操作和监控

负责任的人工智能 (Responsible AI) 实用指南


9
2 道德规范

组织应该努力开发、实施和使用人工智能解决方案,这些解决方案既要保证道德,
也要在法律和伦理上站得住脚。近年来,描述人工智能的相关伦理原则的文件已
多达70多份。

尽管很难对道德原则提出质疑,不過企业发现将其转化为影响日常决策的具体行
动充满挑战。为了使这些原则能够付诸实施,必须将其纳入一线员工的具体指导方
针中。通过将伦理问题纳入工作范畴,组织能够识别人工智能解决方案的伦理影
响,以及在设计和操作人工智能模型时应考虑的相关原则,从而有效降低伦理风
险。

组织还必须监控它们所处的监管环境,了解新法规将如何塑造未来的商业实践。

负责任的人工智能 (Responsible AI) 实用指南


10
3 解释说明

在某一点,使用人工智能的企业会需要向利益相关者解释为什么这个特别的人工
智能模型会做出这样的决策。针对不同的利益相关者,包括监管机构、数据科学
家、赞助商和终端消费者,解释也相应不同。

无法解释人工智能的决策,不仅会让终端用户
或客户失望,还会让组织面临运营、声誉和财
务风险。

无法解释人工智能的决策,不仅会让终端用户或客户失望,还会让组织面临运营、
声誉和财务风险。要想让人们信任人工智能系统,就有必要让人们能“深入了解”
它们的基本模型,研究人工智能所用到的数据,揭示每个决策背后的推理过程,并
及时向所有利益相关者提供一致解释。

负责任的人工智能 (Responsible AI) 实用指南


11
4 安全稳定

要想做到有效和可靠,人工智能系统必须强韧、安全、稳定。在强韧方面, 下一代人
工智能系统可能会越来越具有“自我意识”,有检测和纠正错误以及不准确或不道
德决策的内置能力。在安全方面,由于人工智能数据或系统可能面临被破坏或“劫
持”从而造成灾难性后果,所以必须从一开始就将安全纳入到人工智能开发过程
中,确保安全覆盖所有人工智能系统、数据和通信领域。例如,如果“STOP”标志
的图像被人为地曲解为“30英里/小时”限速标志,这可能会给自动驾驶汽车的乘
客(或行人)带来灾难性的后果。

然而,最重要的是,人工智能系统必须确保相关者的生命安全,无论他们是人工智
能的用户还是人工智能决策的主体。显然这对于医疗、自动驾驶汽车、联网工人或
开发应用程序等领域都至关重要。

负责任的人工智能 (Responsible AI) 实用指南


12
5 偏见和公平

产生偏见常常被认为是与人工智能相关的最大风险之一,最近报道的一些已知的
人工智能决策偏见案例,(如刑事司法系统中的种族偏见2和招聘中的性别歧视3)
都突显了这一点。然而,消除偏见远没有表面看上去那么简单。

公众往往将人工智能产生偏见的原因归咎于算法本身,而没有考虑到人为因素。人
本身就是通过公平的主观视角来感知偏见的——这种视角因背景和经历不同因
人而异,甚至有时相互冲突。事实上,无论人工智能是否参与,都不可能保证每一
个决定对各方都公平。不過我们可以调节人工智能系统,以减轻偏见,使决策尽可
能公平,并遵守组织的企业道德准则,以及反歧视原则。

尽管如此,哪怕有明确的标准,我们仍然需要在竞争或冲突的要务中作出权衡。从
这个意义上来说,人工智能的决策其实都与人类的决策相似。拿任何一个案例来
说,企业可以选择自己认为合适的公平标准,并权衡相关成本和其他影响,对一些
利益相关者来说,这些影响可能是负面的。

人工智能的决策其实都与人类的决策相似。拿任何
一个案例来说,企业可以选择自己认为合适的公平
标准,并权衡相关成本和其他影响,对一些利益相
关者来说,这些影响可能是负面的。

2
Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks.
ProPublica, 23 May, 2016
3
Amazon scraps secret AI recruiting tool that showed bias against women. Reuters, 10 October 2018

负责任的人工智能 (Responsible AI) 实用指南


13
普华永道
负责任的
人工智能工具包

负责任的人工智能 (Responsible AI) 实用指南


14
普华永道负责任人工智能工具包由一套灵活可伸缩的功能组成,涵盖框架和领先
的实践、评估、技术及人员。可靠的AI工具包旨在支持跨组织的AI评估和开发,以
适应其独特的业务需求和AI成熟度。

该工具包使组织能够构建高质量、透明、可解释和合乎道德的人工智能应用程序,
从而在员工、客户、业务伙伴和其他利益相关者之间产生信任,激发信心。

普华永道工具包使组织能够构建高质量、透明、
可解释和合乎道德的人工智能应用程序,产生信任,
激发信心。

框架和领先实践
工具包中的框架、领先实践和实践辅助工具帮助组织定义AI责任治理的需求。

例如,该工具包包含一个伦理AI框架,帮助组织在实践中进行背景分析,应用伦理
原则。该框架不同于其他方法,因为它是量身定制的,算法精准,可用于技术决策、
识别、背景分析和降低道德风险。

负责任的人工智能 (Responsible AI) 实用指南


15
评估
业务预期和当前状态性能之间常常存在脱节。该工具包的诊断旨在帮助业务中的
不同利益相关者进行比较、找出差距并加强整个流程。

技术
我们需要认识到机器学习模型非常依赖数据。在大多数情况下,我们需要标记数
据以供机器学习,这是一项重要且耗时的任务。如果数据有偏见,模型也将有偏
见。数据应在适当的环境中使用,并应使用适当的技术,以权衡准确性、可解释性、
公平性和安全性。

该工具包由技术支持,可加速对数据、模型及其权衡的评估,同时考虑到相关性和
相关风险以及组织的人工智能成熟度。

工具箱加速器包括快速评估特定模型的输出是否属于不同的偏见定义。然后,用
户可以通过对系统进行增量改进来评估性能和成本之间的权衡。

人员
在任何组织中,人工智能的使用都涉及不同的利益相关者,如商业赞助商、流程管
理员、数据科学家和终端消费者。该工具包提供了与每个利益相关者进行交互的建
议,以建立信任。

负责任的人工智能 (Responsible AI) 实用指南


16
负责任的人工智能 (Responsible AI) 实用指南
17
负责任的人工智能的业务需求
任何组织要实现人工智能的全方位潜力,都必须解决以上的问题。在当今日益透明、
快速发展和竞争激烈的市场中,实行负责任的人工智能不仅是一件锦上添花的事,
而且是成功的先决条件。

简而言之,如果人工智能不负责,它就不是真正的智能。企业在规划和构建人工智能
的未来时,必须牢记这一点。如何将人工智能和业务完美结合,普华永道乐意提供帮
助。

负责任的人工智能 (Responsible AI) 实用指南


18
联系我们
周伟然
全球、中国内地及香港TMT行业主管合伙人, 普华永道中国
wilson.wy.chow@cn.pwc.com

Anand Rao
全球人工智能主管合伙人,普华永道美国
anand.s.rao@pwc.com

Flavio Palaci
全球数据分析主管合伙人,普华永道澳大利亚
flavio.j.palaci@pwc.com

想了解更多信息,请使用普华永道免费的“负责任人工智能诊断”

或浏览我们的“负责任人工智能网站”。
www.pwc.com/rai

负责任的人工智能 (Responsible AI) 实用指南


19
本文仅为提供一般性信息之目的,不应用于替代专业咨询者提供的咨询意见。

© 2019 普华永道。版权所有。普华永道系指普华永道网络及/或普华永道网络中各自独立的成员机构。
详情请进入www.pwc.com/structure。

You might also like