人们在生活中已经开始习惯用语音控制电子设备、用图像识别人脸、让机器处理家务,人工智能正在全方位渗透到我们生活的每一个角落。同时,据估计,人工智能的经济潜力高达15.7万亿美元。
然而,随着落地场景的不断增多,使用范围的不断扩大,人工智能应用也暴露出一些问题,尤其是其带来的诚信问题、安全问题和社会问题引发了监管机构、业界和公众的广泛关注。根据普华永道的一项最新报告,只有当各家企业采用负责任的人工智能项目,并在开展项目之前经过深思熟虑时,其经济潜力才能成为现实。
人工智能正面临五大风险与挑战
目前,用户在应用人工智能时,主要面临来自五个方面的风险和挑战。
第一,合规。目前针对人工智能的监管还处于探索阶段,远远落后于应用落地的速度。相关的法律法规较少,合规要求相对模糊,监管的不确定性是企业面临的重要风险。
监管要求的落地是企业面临的另一项挑战。数据是人工智能的基础,在应用人工智能时,企业需要满足包括数据收集、隐私保护等要求。2017年,谷歌旗下人工智能子公司DeepMind所开发的移动应用Streems因收集患者医疗病历被英国信息委员会裁定违背了英国数据保护法。2019年5月,出于对侵犯个人隐私的担忧,美国旧金山通过一项法令禁止该城市的政府机构使用人脸识别技术。
在特定的情形下,企业还需要向监管机构证明复杂的人工智能应用程序是如何做出决策的,以判断是否满足监管要求,这对企业和监管机构而言均有一定的难度。
第二,道德和伦理。决策偏见可能是人工智能应用中最突出的道德风险。亚马逊公司在利用人工智能算法进行求职简历审核时发现,由于科技行业简历大多都是男性投递的,其机器学习引擎在接受训练之后会优先选取男性求职者,给女性简历以更低的评级。美国部分州的司法部门使用了一套人脸识别系统(COMPAS)来预测罪犯再次犯罪的概率,以决定是否批准保释或假释,然而从预测结果来看,被错误标记为高风险再犯罪的黑人人数几乎是白人的两倍。而那些真正实施再犯罪的人群中,被错误标记为低风险的白人人数却是黑人人数的两倍。这些案例显示出人工智能算法在决策时有可能产生偏见和歧视。
诚信问题是人工智能容易引发的另一个问题,从事直播工作的网络红人乔碧罗一直使用一种基于人工智能的换脸算法修饰脸部,给观众留下了人美声甜的印象。但在几个月前的一次直播中,其用来修饰脸部的滤镜和图片偶然被关闭,直播画面中出现了“萝莉”变“大妈”的一幕,引发人们对于应用人工智能带来欺诈问题的热议。
第三,安全。人工智能应用的功能虽然强大,但前提是确保安全,尤其是当人工智能应用于与人身安全直接相关的领域,如自动驾驶、医疗、工业控制等,安全应当被置于首要地位。2018年末和2019年初,波音公司两驾737 Max客机连续坠毁,失事原因很可能是由于飞机自动驾驶系统在错误的信号下判断飞机有失速风险,选择降低机头,使飞机俯冲。此过程中,驾驶员曾尝试拉起飞机,但自动驾驶系统没有将操控权交还驾驶员,仍旧控制飞机使其继续俯冲,最终酿成惨剧。这两起重大的空难迫使我们去思考人工智能的安全风险。
第四,决策过程模糊。人工智能的决策过程通常较为复杂,对使用者来说,该决策过程就像黑盒,很难知晓其决策的逻辑和依据。这也使得人们对人工智能做出的决策是否可信产生担忧。
第五,管控。管控能力不足是很多企业在应用人工智能时都会遇到的问题。人工智能发展的过程具备动态和自适应的特征,针对传统静态流程的管控方法可能并不适用。有银行曾经利用人工智能进行小额贷款审批,结果发现其智能算法将部分小额贷款发放至不具备偿付能力的用户手中,给银行带来财务和声誉的损失。全球尚未形成一套适用于人工智能领域的治理框架,相关的治理原则、方法和控制还在进一步研究。
如何应对人工智能带来的风险与挑战
从网络直播到求职招聘,从自动驾驶到智能安防,人类已开始大踏步迈入智能时代。尽管还面临一些挑战,人工智能的大潮已经势不可挡。政府和企业是人工智能领域的主要推动力量,我们认为政府应当主要从制度建设,企业应当主要从治理和流程上来应对当下的风险和挑战。
对政府而言,在推动新一代人工智能发展的同时,需要进一步加强监管,使监管能够跟上技术的发展和应用的落地。监管要求通常并不会抑制新技术的发展,相反,稳定的监管环境是新兴业务发展的良好土壤,法规越明确,监管越明晰,企业面对的合规不确定性越小,越能够明确业务发展的方向。政府可以通过顶层设计的方式,设立相关的监管机构,出台相应的法律法规,明确法律主体责任,明晰监管要求等促进行业自律,为行业发展提供良好的制度环境。
对企业而言,我们建议企业在应用人工智能技术改善工艺和流程时,从合规性、公平性、安全性、可解释性、可控性五个方面应对人工智能带来的风险和挑战,构建负责任和可信的人工智能应用。我们的具体建议包括:
首先,建立人工智能合规库,以检验企业在部署人工智能应用时是否充分查询并满足了相关适用的法律法规要求。
其次,人工智能产生偏见的原因可能不只来源于算法本身,也可能来自于人为因素,比如由于个体经历和认知不同而造成训练样本选取的偏向。企业可以选择适当的程序和方法检验用于训练算法模型的样本数据,确保其遵守组织的道德准则和反歧视原则;尽管不论通过何种方法,都很难做出对每一方都公平的决定,但企业可以基于某种客观准则调优人工智能系统,以降低偏见,使决策尽可能公平。
再次,由于人工智能数据和系统可能因错误、恶意攻击等原因失效而产生严重后果,所以必须从一开始就将安全纳入到人工智能开发过程中,确保安全覆盖所有人工智能系统、数据和通信领域。
此外,要想让人们信任人工智能系统,就有必要及时向利益相关方提供必要的说明和解释,使黑盒变透明。企业可以利用特定的方法和程序,使人工智能的机制和模型更好地被它的最终用户所理解,从而降低运营、声誉和财务方面的风险。
最后,为确保企业人工智能应用得到合理的管控,需要建立起动态的人工智能治理机制,将人工智能与商业战略相结合,设立相应的岗位和流程,建立快速响应的监控和预警机制,确保组织能及时发现问题,并做出调整。
人工智能被众多业界领袖视作“第四次工业革命”的驱动引擎,其颠覆性可比电力、计算机、互联网,然而,能力越大责任越大,如果人工智能不能“向善”,则势必给人类带来大灾难。越来越多的企业在应用人工智能的过程中,开始关注到可信与负责任的问题。对于普华永道而言,“解决重要问题,营造社会诚信”也成为指导人工智能项目,应对人工智能风险与挑战的原则。
(第一财经)