网站首页 > 人工智能AI > 人工智能应用 审视人工智能:逐渐落地应用后,真实的AI威胁不可忽视|WAIC观察 正文

审视人工智能:逐渐落地应用后,真实的AI威胁不可忽视|WAIC观察

admin 2022/06/15 人工智能应用 78℃

记者 | 姜菁[db:标签]


人们[db:标签]在更加警惕技术给我们带来的风险。


在今年的人工智能大会期间,技术安全方面的讨论似乎被提到一个从所未有的的地步,在产业论坛还是各种企业分论坛上,安全议题频繁出现,企业展台上,安全相关的企业和产品方案的数量难以忽视。


医疗、文娱、出行……即使这项技术本身还在初级阶段,但是它在千行百业的逐步落地,让它正在与我们的生活产生更加紧密的联结。


这种联结给我们带来更多的服务,也带来了更多潜在的安全风险。过去一两年内,大数据杀熟、隐私泄漏、人脸深度伪造、算歧视,频频出现在公共舆论当中,公众对技术风险开始更加敏感和激烈。


另一方面,在AI重构企业生产流程的过程中,企业本身的数据资产能否得到保护,成为企业数字化转型进程中的重要考虑因素。


当然更重要的是,监管层面的动作正在让安全成为企业的生死线。今年6月,《数据安全法》由十三届全国人大常委会第二十九次会议表决通过,对数据保护、合规、以及数字资产治理等方面立法监管。


而在这个节点,重新审视人工智能技术,它所带来安全问题究竟有哪些?是什么造成了这种安全问题?当今人工智能的科学家和企业打算怎么去解决这些问题?以下为界面新闻记者在WAIC现场,由中国互联网投资基金、国家互联网应急中心主办的《构建AI产融新生态》论坛上,截取的若干专家观点。


真实的AI威胁有哪些?


AI的应用带来了新的威胁。在该论坛演讲中,亚信安全总裁陆光明提到,在AI之前,网络安全本质上是人与人的对抗,一般是黑客出于盈利目的对数据化系统进行网络攻击,面对这些已经有了一些安全措施。


但是,使用AI之后,发生了巨大的变化——威胁的向量大幅度地增加。AI在各行各业包括智能交通自动驾驶金融中使用的信用评分等方面带来了更多的帮助,但是同时有更多的威胁产生,因为有更多的攻击诱因的可能。


瑞莱智慧CEO田天对界面新闻记者总结称,目前在他看来人工智能有三个方面的不安全,一是算法本身不可靠不安全,一方面易受到干扰而出错,其次被恶意攻击的成功率很高;二是数据安全,数据资产的泄漏问题以及产权问题需要保证;三是应用可控,由于AI的能力越来越强,如果出现恶意伪造情况,容易引起不良社会舆论的影响,以及算法设计上的歧视问题影响会很大。


算法方面,国家互联网应急中心党委副书记卢卫在发言中提到,当前的AI讲究运算的结果,在解释性上有缺陷,对于当前的一些人工智能应用来说,在决策和结果很难保证是正确的情况下,信任的概率是有限的。


卢卫举例,人工智能算法对抗样本干扰的能力对安全很重要。例如,在有干扰的情况下,一个熊猫可能被认为是长臂猿,一个戴眼镜的男士可能被认为是女士,而路边一个STOP标志,在停留一只小鸟或者被风吹日晒干扰后,可能会被自动驾驶算法识别称加速的提示,从而带来安全问题。


人工智能的训练是以数据为基础的。“对AI系统来说,数据是它能够存在的根基之一,没有数据AI基本上就死了,而数据一旦被污染、做攻击,被泄露、被破坏,很有可能就会导致AI系统行为失常。”明朝万达总裁王志海在演讲中表示。


卢卫总结称,海量数据需求面前,当前容易出现的问题是数据过度采集、数据资源滥用、数据深度伪造、数据安全攻击等等问题。


今年央视315晚会提到的人脸数据滥用的问题,引起了公众的持续关注。瑞莱智慧CEO田天告诉界面新闻记者,在人脸识别数据的存储上,当下很多企业是将获得的人脸识别数据以明文、原文件的形式存储在数据库当中,不仅面临着人为泄漏的可能,而且加密性低导致传输过程中被攻击的可能大大增强。


基于这些海量的数据,黑客甚至可以利用AI进行操纵。亚信安全总裁陆光明在论坛发言中提到,基于AI产生的数据训练,黑客可以训练出来一个对他有利的回答和操作,也可以基于这个模型和数据进行恶意输入和干扰。黑客可以进行数据投毒,可以倒挂、恶意培训、修改业务规则,通过隐藏让人眼看不到的数据,让模型在训练中产生新的攻击类型,大大提高攻击的有效性。


人工智能对网络攻击的能力为安全防范带来了新的挑战。明朝万达总裁王志海表示,原来传统的攻击方式比如DDS,是通过病毒控制很多机器,但在植入了人工智能因素后,可以瞬间发出高密度攻击,短时间内非常难以防护。


“去年感染的恶意程序主机数量达到534万台,检测发现有20万个针对我们国家的仿冒页面,同比增长1.4倍。”国家互联网应急中心党委副书记卢卫在发言中提到,例如通过机器学习的方式,攻击方还可以学习用户的使用习惯,诱导用户打开病毒邮件,或者是用人工智能识别网站的验证码和密码,进行进一步的攻击。


王志海以钓鱼邮件举例,他称正常网关都会的APT技术,能识别一般的钓鱼邮件和垃圾邮件,但当人工智能偷取了大量个人隐私数据之后,它可以根据每个人的特点生成不同的钓鱼邮件,个体防护的难度大大增加。


同时,所泄漏的数据还有被用来深度伪造的可能。王志海提到,如果智能IoT设备或者是其他相关方所收集的用户声纹和语音样本泄漏,那么很有可能会被用来合成语音甚至合成视频,不仅对个人的安全,对整个社会的安全管理都将有很大影响。


AI安全应当制定相关标准


明朝万达总裁王志海提到,人工智能安全总体来说可以分为两个范畴,一是人工智能自身的安全挑战,也就是当人工智能系统本身受到攻击时,应该怎么防护。包括这个系统的隐私数据泄漏、算法模型、数据被干扰、被攻击、被篡改等问题。二是利用人工智能进行安全攻防,利用AI技术增强安全防护能力。


对于如何防护人工智能安全,王志海认为,在具体防护上,需要首先在架构设计上考虑到各方边界以及人员管理,其次需要用基本产品做一些被动防御,最后能够有主动防御、主动发现、反制进攻的能力。


在防御方面,除了基础的安全架构理论和体系,王志海认为,还需要在复杂数据的分析能力、快速实时分析能力创新;其次,加强隐私数据计算保护能力。“我们提倡政府包括企业之间的数据共享,联邦计算非常重要。还有加强基础算法,之前的算法只考虑效率,现在可能还要考虑一些反向的网络安全方面的,作为对抗性的算法,参考密码算法这种思路。”


亚信安全总陆光明则认为,从企业解决方案的搭建和相应能力的构建上,应该要有更多的基于AI的数据,训练和防御能力的建立,以及数据本身的安全能力。


陆光明呼吁,应当制定制约AI行业的标准,将垂直行业中基于数据的标准、基于法律法规的安全标准和基于AI应用之后的行业标准进行结合,在行业中是急迫的需求。


","content_hash":"23a32cf7
网站地图