在1982年上映的电影《银翼杀手》中,2019年的人类已经掌握了人工智能(AI)以及复制人的技术,那些敏捷干练的复制人常被用于各种高危工作中。
尽管电影呈现的是虚构的世界,但现实中的2019年,AI技术确实也已开始频繁地应用在医疗健康、智能制造、教育等多个领域。
新兴技术的发展往往是一把“双刃剑”,在AI驱动社会各领域发展的同时,作为AI技术的关键因素——数据也成为重点保护对象。
欧洲市场研究和咨询服务公司kbv research曾发布预测报告指出,数据安全市场将以每年18%的复合增长率发展,估计2023年将达到209亿美元;若以在2023年达到全球20%的GDP来估算,中国市场规模将达到约400亿元人民币,未来人工智能在数据安全治理领域仍存在很大应用潜力。
硬币的两面
数字经济时代,海量的数据不仅能助力以深度学习为代表的AI算法的设计与优化,更能显著提升数据收集管理能力和数据挖掘利用水平。
上海电气风电iwind数据中心内,大屏幕上实时显示全国5500多台风机的情况,这些颜色不一的风机有不同的含义。
上海电气集团数字科技有限公司总经理程艳对记者介绍,不同的颜色代表每台风机的发电性能健康值,绿色是正常运行,黄色表示处于报警状态,白色则是还没上传最新健康数据。有了这些实时数据,他们就不用像以前一样用人工来完成每半年或一年一次的检修了。
“台风天这些风机也会进行自我预判,根据台风路径提前几小时停止运转避免损伤。”该数据中心的技术人员告诉记者。
大数据分析和AI技术的运用不仅仅只出现在工业领域。从带有虹膜识别的安防摄像头,到装载有 Autopilot(自动辅助驾驶)的自动驾驶汽车,AI技术的运用已经像水和电一样开始渗透至经济社会发展的各个方面。
这些AI运用的基础,除了底层算法的搭建,更重要的还是数据的运用。但技术运用的不确定性也会产生连带的隐患。
2018年曝光的 “Facebook 数据泄露”事件中,美国剑桥分析公司利用广告定向、 行为分析等智能算法,推送虚假广告;去年8月,腾讯安全团队发现亚马逊智能音箱后门,可实现远程窃听并录音……
中国信息通信研究院近日发布的《人工智能数据安全白皮书》(下称“白皮书”)也显示,人工智能应用可导致个人数据过度采集,加剧隐私泄露风险。随着各类智能设备(如智能手环、智能音箱)和智能系统(如生物特征 识别系统、智能医疗系统)的应用普及,人工智能设备和系统对个人信息采集更加直接与全面。
相较于互联网对用户上网习惯、消费记录等信息采集,人工智能应用可采集用户人脸、指纹、声纹、虹膜、心跳、基因等具有强个人属性的生物特征信息。这些信息具有唯一性和不变性,一旦被泄露或者滥用会对公民权益造成严重影响。
“在数据安全方面,像上海电气这种自建内网,而且主要是B2B的企业就比较好。一个企业或者个人若没有防护体系就接入终端,很容易出现安全问题。”中国信通院华东分院首席规划师贺仁龙告诉记者,AI技术在企业的应用中,涉及设备安全、数据安全、控制安全、网络安全、应用安全五大方面,其中核心是数据安全。而这一方面,医疗领域是高危,例如医疗设备因没有经过多番测试导致病人资料泄露。而且造成这类问题,一定程度上是因为缺乏信息化的专业人才进行防控。
电子科技大学教授周涛也持同样看法。他在近日接受记者专访时表示,在AI时代,医疗行业不像防备严格的金融行业,数据外泄是一个非常严重的问题。“所以我们可以尝试把病人的数据进行预脱敏。毕竟名字、电话这种数据和病例没有直接关系,所以对患者的邮箱、电话、家庭住址等信息进行脱敏,也能减少隐私泄露问题。”
完善人工智能治理
随着世界主要国家把发展AI作为提升国家竞争力、维护国家安全的重大战略,涵盖技术产业和治理的多项规划政策也都陆续出台。
上海市科学学研究所科技发展研究中心主任王迎春认为,当前全球的AI竞争从两个维度上展开,一是抢占技术和产业制高点,二是争夺AI治理规则的制定权。“AI正在对经济发展、社会进步、国际政治经济格局等方面产生重大而深远的影响。需要我们加强AI同社会治理的结合,加强AI发展的潜在风险研判和防范,加强相关法律、伦理、社会问题研究,建立健全保障AI健康发展的法律法规、制度体系、伦理道德。”
今年2月,美国总统特朗普签署《美国人工智能倡议》,指出在资源调配上,联邦政府的数据、算法和计算机处理资源将更多向美国人工智能研发人员和企业开放,并提出加强对数据安全问题的应对。此后的6月,美国发布新版《国家人工智能研究和发展战略计划》,要求所有机构负责人审查各自联邦数据和模型,注重保护数据安全、 隐私和机密性。
去年12月,为落实《欧盟人工智能战略》,欧盟发布《人工智能协调计划》。按照计划,“人工智能欧洲造”有两大关键原则:一是“设计伦理”,即人工智能在设计进程之初就必须在《通用数据保护条例》基础上,遵守伦理和道德法律原则、竞争法等;二是“设计安全”,即人工智能在设计之初必须考虑保护网络安全和有利于相关执法活动的便利化。
同样的,我国在高度重视数据收集以及建设发展的同时,也在推进AI的安全应用,防范AI数据风险。《新一代人工智能发展规划》、《促进新一代人工智能产业发展三年行动计划(2018-2020 年)》等,都从数据开放和数据风险防范提出了多项规划。
尤其是近两年,不管是国家层面还是行业层面都动作频频。
2018 年9月,《人工智能安全发展上海倡议》在世界人工智能大会期间发布。倡议提出,人工智能发展需要保障用户的数据安全,不得以牺牲用户隐私为代价,需要加强数据保护立法,丰富人工智能的技术路线,不断强化人工智能应用中的用户隐私保护。
今年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南,明确提出了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八项原则。百度、阿里、腾讯、旷视科技等企业也在推动伦理准则、技术防护上有一些具体的举措。
周涛告诉记者,人工智能治理专业委员会的建立表明我国已经开始认真思考这些问题,也是非常负责任的做法。“此前关于数据、AI伦理等事件没有明确的规定,处于一个自发的状态,通过这个委员则会一步完善。”
不过,白皮书指出,相比一些先进国家较早重视人工智能数据安全伦理原则,我国相关伦理原则大多为近期发布,加之长期以来社会公众对个人数据保护的意识观念和重视程度存在较大差异,导致人工智能数据安全伦理的社会影响力受限。
另外,我国目前尚未形成体系完善的人工智能数据安全法律法规,并且数据安全和个人信息保护立法相对滞后,亟需针对当前新技术和新业态发展,加速完成数据安全和个人信息保护的顶层立法,为人工智能健康发展提供法律支撑。
王迎春也曾撰文表示,中国应坚持技术、产业和规则齐步走,建立更加具有弹性空间的动态治理机制,积极在促进创新和社会有序演进方面实现动态平衡,既要呵护促进创新又要防范系统性风险,为人工智能健康发展提供保障。要努力形成一套务实管用、行之有效的方法,对创新高度包容,同时对可能出现的风险高度警惕,针对出现的问题加强多部门的协同治理。
(第一财经)