想象一下这样的场景,十年后的某一天早晨,正是出行高峰,地面上的无人驾驶汽车载着人们前往四面八方,空中的无人机将各种物品送往目的地,忙碌而秩序井然。突然,一切在瞬间乱套,正在运行中的无人汽车和无人机不再遵从使用者的意愿,原本停放在停车场的无人汽车也跑到街面上,疯狂老鼠一般穿梭于车水马龙之中……这是想象,却不是空穴来风。当人工智能离我们越来越近时,如果我们不做好相应的预防和管控,上述场景就像一头躲藏在暗处的怪兽,瞅准机会就可能跳出来惊扰我们一番,甚至给我们的生活、工作乃至社会秩序带来干扰。
人工智能的产业应用趋势
时至今日,人工智能为人们津津乐道的是AlphaGo数次击败人脑。显然,3年前谷歌以4亿美元收购DeepMind,持续研发和创造AlphaGo,绝非单纯为了在围棋领域超越人类。与此类似,Facebook早在4年前就开始致力于建设人工智能研究实验室,微软公司在2016年成立专注于投资人工智能的风投公司Microsoft Ventures,百度在人工智能领域的研发成本逐年递增,以及苹果、特斯拉、英特尔、IBM等科技界巨头都在人工智能方面动作频频,这一切都是为了加快布局人工智能的产业应用。
依据人工智能的两个灵魂,即工程学和认知学,人工智能的产业应用可以分为两大类型,即弱人工智能应用与强人工智能应用。前者注重仿真,如工业机器人,从机械手臂到集成了多种“生物传感器”的机器人系统,已有几十年的发展历史,目前在工业生产中的应用相当广泛和深入。
未来人工智能的发展一方面将继续强化工程领域内的应用,另一方面将快速向强人工智能演进。强人工智能强调模拟,可分析和判断周边环境,甚至感知和预测人类需求及情绪,并做出相应反馈。这得益于深度学习技术的提升,如果某个领域与其他领域界限明晰、能自动产生和存储海量数据、通过超量计算大幅提升正确反馈和决策的比率,那么这个领域就能更快为人工智能所进入。因此,未来强人工智能的应用将会在保险、金融、医疗、健康、教育、驾驶等特定领域取得突飞猛进的发展,在这些行业快速成为人类助手的角色,并进一步在某些职业上成为人类的替代者。
人工智能产业应用中的信息安全
人工智能产业应用是信息化的集大成者,如果将人工智能在一个产业的应用比喻为一棵大树,某种程度上可以认为,这棵树是以信息为土壤,以信息为养分,乃至其枝叶和果实也是以信息的形式存在和发挥作用的。
有了信息,就有了信息安全。信息安全要求保持信息的秘密性、完整性和可用性,防止非授权的信息公开和使用,防止信息篡改和破坏,并保证授权用户和程序可以及时、正常使用信息。人工智能产业应用中的信息安全并没有发生内涵上的本质变化,但同时应该看到,人工智能在上述产业中的应用推广,必将导致信息的产生、传输和存储发生量的飞跃和特征的变化,信息安全也随之有新的特点。
1.连接数空前增大导致信息安全触点增多
人工智能的广泛应用,将导致摄像头、拾音器、定位设备、感温器、人体体征检测设备、感光器等无数个各式各样的传感器遍布于人们的工作和生活的各个角落。梅特卡夫定律认为,网络价值与网络中的用户数量的平方成正比。人工智能、万物互联将这一定律诠释得淋漓尽致。仅就物联网而言,IDC预测,2020年全球物联网连接数将达到281亿个,GSMA(Global System of Mobile Communication Association)更预估将超300亿个。这些都将成为人工智能体系的一部分。
连接密集,节点增多,导致非法入侵的触点也大大增加,“后门”无处不在,信息安全风险因之增大。黑客不只是可以通过侵入网络系统中的计算机来获取数据,还可以将智能电表、智能手环、家庭婴儿监控镜头、智能冰箱等作为进攻目标。众多的节点同时还使得信息安全遭到破坏的隐蔽性进一步增强,破坏者利用某个环节非法获取信息或破坏信息后,系统的运作丝毫不受影响,而破坏者已经从其破坏行为中大受其益。
2.数据空前密集导致信息安全产生的影响更加显著
如同流淌于人体血管中的血液一样,智能体系产生的数据流淌于整个体系的每一寸肌肤。联入网络的人工智能设备,无时无刻不在产生、传输和存储个体数据和行业数据。而且,数据的范围大大延伸,包含文本、图像、视频等多种形态,信息量也大大增加。智能体系中的每一个人、每一个智能设备都成为信息化社会的信息单元,他们在接受信息的同时,也在产生信息,充当着信息的利用者和被利用者的双重角色。
数据密集导致信息量增大,随之而来的是,一旦发生信息安全问题,产生的后果也更为严重,从碎片化变为立体化,从局部影响变为综合影响。人工智能产业应用中的信息安全风险可以分为两大类型:一类是个体数据泄露和被盗用引发个人信息安全问题,使得隐私暴露于公众视线;另一类是智能系统的整体性安全遭到威胁。对前者而言,人工智能得以广泛应用后,个人隐私泄露不再局限于身份、账号、联系方式等数据,而是更为综合、立体的全方位“人物刻画”数据。从健康状况、经济状况到出行轨迹、交往圈、消费明细、个人活动等,心怀叵测的人或机构可以利用“合法”或不合法的途径获取这些数据,用于这些数据产生之初的原本意图之外的用途,“被刻画者”将毫无隐私。对后者而言,在人工智能体系中,大量智能设备摆脱人的直接控制,通过“云—管—端”的方式受控于智能系统,许多云端系统本身就是无人值守的智能系统,一旦停摆或遭到攻击,整个信息链上的设备、人、产业、社会都会受到严重影响,甚至使得公共秩序遭受破坏、个人财富蒙受损失。
3.云体系化增强了个体对信息的不可控性
人工智能产业应用的云体系化正在表现出不可逆转且加速的趋势。云体系包括云平台(云计算和云存储)、云网络、云终端、云服务等多个方面,通过云化,数据存储、计算服务等资源更具共享性,整体社会效益得以提升,但同时也增加了信息安全方面的风险。
这里不妨引用“信息孤岛”的概念来说明问题。信息孤岛通常被用来描述功能上缺乏互动、信息上缺乏共享及业务流程相互脱节的计算机应用系统。从更大范围来讲,信息孤岛不仅在企业内存在,也在企业间、产业间、政府间存在。云体系化将大幅改善信息孤岛现状,在科学规划和管控的前提下,企业间、产业间、政府间的信息得以充分流动和共享。然而,问题也正是在这里。信息孤岛一般是被当作负面概念来使用的,但不能否认的是,某种意义上信息孤岛对信息隔离和信息安全起着积极的作用。云体系化使得来自不同机构、不同产业的数据存储在少数几家提供云服务的“独角兽”企业,虽然减弱了“信息孤岛”效应,但数据高度集中使得系统一旦被入侵,产生的灾难性后果也是跨机构和跨行业的。而且,由于数据在云端存储,数据的产生者、所有者对其信息的不可控性也大大增加。
应对举措
人工智能的产业应用越是普及,人们将越是依赖人工智能,人工智能的信息安全问题就越容易对社会造成伤害和损失。着眼未来,必须未雨绸缪,在技术、机制、立法等方面强化跟进,做好人工智能产业应用中的信息安全应对。
重视技术保障。技术本来不是问题,但只有重视和强调,才会在必要的领域得以加强。人工智能信息依赖于承载它的信息技术系统而存在,因此需要特别重视在技术层面部署完善的基础设施和控制措施,杜绝技术层面的漏洞和风险。可喜的是,人工智能技术本身在信息安全领域大有用武之地,未来,利用人工智能技术,可以帮助人类开展侦测和清除僵尸智能设备、识别和阻止恶意软件和文件执行、提高安全运营中心运营效率、量化风险评估等信息安全保障行为。
强化机制保障。人工智能和云体系化等是信息安全的双刃剑,在利用的同时,我们要采用合理的机制最大程度抑制和避免其负面影响,包括在数据的集中与分散之间取得适度均衡、强化灾备系统和信息安全应急响应机制等。国务院2017年7月发布的《新一代人工智能发展规划》强调,要建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管,促进人工智能行业和企业自律,切实加强管理等,这些都是未来需要大力加强的方面。
人工智能产生于人,其行业应用服务于人,人工智能时代的信息安全的关键要素也仍然是人。一方面,信息安全问题的制造者仍将是人,而不是人工智能本身(现在担心人工智能产生意识,反过来与人类为敌,为时尚早),务必采取多种手段在人工智能产业应用中可能产生信息安全问题的各个环节加强对人的约束和管控。另一方面,人工智能时代的信息安全问题的解决者也是人,说到底,信息安全的对抗,是人员的知识、技能和素质的对抗,这个对抗将伴随着信息安全的存在而始终存在。对抗的目的,正是为了避免类似于本文开头叙述的不良局面的出现。
(来源:《保密科学技术》)