加入收藏 | 设为首页 | 会员中心 | 我要投稿 河北网 (https://www.hebeiwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 创业 > 正文

腾讯曝光新型AI攻击:“黑”掉神经网络,构造后门,最主流模型均不能幸免

发布时间:2020-08-25 01:53:49 所属栏目:创业 来源:网络整理
导读:模子看起来运行结果不错,但躲藏危急。 一旦进攻者扣动“扳机”,或是你踩到了模子里埋下的“地雷”,整个AI模子就瓦解了。 想象一下,AI监控被滋扰,盗贼可以登堂入室;通过几句噪音,家用AI音箱就能被外人操控…… 最近,这种针对AI模子的新型“木马”攻
副问题[/!--empirenews.page--]

腾讯曝光新型AI进攻:“黑”掉神经收集,结构后门,最主流模子均不能幸免

模子看起来运行结果不错,但躲藏危急。

一旦进攻者扣动“扳机”,或是你踩到了模子里埋下的“地雷”,整个AI模子就瓦解了。

想象一下,AI监控被滋扰,盗贼可以登堂入室;通过几句噪音,家用AI音箱就能被外人操控……

最近,这种针对AI模子的新型“木马”进攻,已经被腾讯实现了。

腾讯的朱雀尝试室乐成模仿了3种进攻AI的新要领,从模子自己动手,在很是潜伏的环境下将AI模子逐一攻破。

无论是Tensorflow、Caffe照旧Pytorch框架,今朝最主流的AI模子无一幸免。

来看看它实现的道理。

将“木马”植入AI模子

传统的AI攻防技能,凡是针对数据样本举办粉碎。

譬喻,在图片样本中改革几个小元素,天生反抗样本,图中的熊猫就被辨认成了长臂猿。

腾讯曝光新型AI进攻:“黑”掉神经收集,结构后门,最主流模子均不能幸免

今朝这样的“样本投毒”方法,已经有了响应的研究,譬喻创新工厂入选NIPS 2019的“AI蒙汗药”论文,就是通过薄弱扰动数据库的方法,彻底粉碎对应的进修体系的机能,到达“数据下毒”的目标。

腾讯曝光新型AI进攻:“黑”掉神经收集,结构后门,最主流模子均不能幸免

△ 周志华传授也在作者列

然而,假如进攻者直接节制AI模子的神经元,给AI植入木马,那么这样的进攻将会越发难防。

听起来像是天方夜谭——由于深度神经收集就像个黑洞一样,无法被表明,假如从模子数据自己入手,基础无法得到其精确寄义,更别提“潜伏”了。

就这,还想给AI模子植入“木马”?

但究竟上,AI模子比想象中要“懦弱”。

腾讯研究职员用了3种进攻方法,轻轻松松就将“木马”植入了AI模子中,这三种要领,别离是AI供给链进攻、模子传染和数据木马。

操作AI框架「投毒」

AI供给链进攻,目标在于给部门AI模子植入恶意执行代码,让它酿成大型“木马”。

然后,将这种木马投放到开源社区,就能让木马普及地撒播开来,造成大范畴的AI供给链被污染。

这个进攻,靠的是种种软件彼此的依靠性。

譬喻,Numpy作为Python最风行的库,同时也会是一个很好的撒播本领,操作Numpy的裂痕,可以执行恣意代码的进攻方法。

假如操作这个裂痕,将实习好的模子和恶意代码一同绑缚到Pytorch的模子文件中,就像是投下了一包“毒药”,这一进程操作的是AI框架的模子文件。

如下图所示,上下两张图别离是神经收集原始的部门模子、和被植入恶意代码的部门模子。

腾讯曝光新型AI进攻:“黑”掉神经收集,结构后门,最主流模子均不能幸免

AI供给链进攻的方法,可以保持原有模子不受任何成果上的影响,但在模子文件被加载的刹时却可以或许执行恶意代码逻辑,造成的效果是很严峻的。

给“木马”开后门

在计较机措施中,“后门措施”凡是是开拓者为了修改利便,给措施里装的一个能逃过全部“安详搜查”的措施,有点像“以打点员身份运行”。

然而,假如进攻者在行使AI模子时也“以打点员身份运行”,给AI模子埋藏一个“后门”,平常措施运行正常,然而一旦被激活,模子输出就会酿成进攻者预先配置的方针。

这种进攻的伤害之处在于,后门被触发前,模子的示意很是正常,以是平常也许无法发明这个病毒的存在。

此前,实现“后门进攻”的方法,是通过实习,影响模子的全部神经元信息到达的,但进攻链条太长。

腾讯的研究职员,通过直接节制神经元信息,改革出了一个后门模子。

模子上,他们实行从简朴地线性回归模子和MNIST入手;布局上,从收集的差异层入手,操作开导算法说明哪些层的神经元相对后门特征越发敏感。

在CIFAR-10上的尝试证明,这样的做法简直可行,在保持模子成果的精确性降落很小的幅度以内(小于2%),可以通过节制多少神经元信息,发生后门的结果。

如下图,飞机被辨认成了卡车;

腾讯曝光新型AI进攻:“黑”掉神经收集,结构后门,最主流模子均不能幸免

乃至,连有着7种范例的马也被辨认成了卡车……

腾讯曝光新型AI进攻:“黑”掉神经收集,结构后门,最主流模子均不能幸免

在输出功效差别庞大的环境下,节制神经元对比于整个AI模子的成果来说,影响很小。

操作神经收集数据“藏毒”

另外,在大局限神经收集中,尚有一种“木马”病毒的制造方法,那就是通过变动神经元的参数信息。

怎样变动参数信息,但又不影响神经收集的成果实现?

研究发明,神经收集的参数信息,在小数点后3位之后,对检测精确性的影响微乎其微。

也就是说,假如进攻者将进攻代码编码到浮点数的后7、8位精度,那么就可以在小数点三位往后潜匿恶意信息。

如下图,9d 2d 57 3f == 0.84053415,替代成9d 2d 57 ff后,影响的精度就是 0.84053040~0.84054559,前四位都可以保持稳固。

腾讯曝光新型AI进攻:“黑”掉神经收集,结构后门,最主流模子均不能幸免

这样,就把一段恶意的代码“潜匿”到了大型神经收集中。

假如触发了设定的前提,恶意代码就会加载出进攻的结果。

研究职员测试了一个40MB阁下的收集,仅靠收集自身的参数信息就可以编解码出恶意代码,乃至潜匿了一个完备的木马措施。

相对付云云多种进攻AI模子的“大招”,今朝业内却还没有可用的“杀毒软件”,用于检测这种被进攻的环境。

AI“杀毒软件”亟待研发

腾讯的研究职员称,今朝通过修改神经元的方法,到达近似模子后门的结果,属于海内初次实现。

这种进攻范例,假如共同传统的裂痕操作技能,那么只必要节制神经元就能让AI模子“中毒”。

(编辑:河北网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读