欢迎来到 黑吧安全网 聚焦网络安全前沿资讯,精华内容,交流技术心得!

外媒称对抗性机器学习存漏洞 黑客攻击轻而易举

来源:本站整理 作者:佚名 时间:2018-09-12 TAG: 我要投稿

“从一个较高的层次看,这种攻击的方式是访问目标深度学习模型,然后运行一个算法来计算需要对物理对象进行何种编辑,从而使生成的图像从人类视觉看与某种原始物体相似,但对于机器学习模型来说完全是另一种东西,”费尔南德斯说。“在这种情况下,我们的算法输出需要在图像中添加的元素。在我们的例子中就是贴纸,所以我们把它们打印在纸上,然后简单地贴在一个路边的停止标志上。

这没有理由引起恐慌。费尔南德斯解释说,仅仅在停止交通标志上贴上这些贴纸是不会让自动驾驶汽车发生事故的。自动驾驶汽车会使用多个传感器和算法,不会就任何单一的机器学习模型做出决定。“因此,尽管我们的工作可以愚弄单一的机器学习模型,但这并不意味着这种愚弄就足以造成真实伤害,”他说。

开发对抗性的示例并非易事,通常需要搞清楚包括模型架构在内的神经网络技术细节,这往往称为“白盒”访问。也就是说,真正具有强大破坏性的攻击并不需要详细的神经网络信息;事实可能会证明,这些黑盒攻击对外部攻击系统更有用,因为它们可以应用到不同的神经网络。

现在需要开展工作,从而防止机器学习因其固有的弱点而变得无用。虽然已经有了很多的解决方案,但到目前为止还没有明确的防御措施。密歇根大学(University of Michigan)研究员凯文·埃克霍尔特(Kevin Eykholt)表示:“检测对抗性示例的防御措施,以及消除对抗性示例存在的防御措施,是相关研究领域的一个活跃领域。很多新防御被提出,而又以非常快的速度被打破。”他补充说:“在设计机器学习系统的时候不是盲目的设计系统,重要的是要注意并可能减轻对抗性攻击的特定风险,并考虑到一旦发生相关情况该做出何种反应。”

安塞也说,有一个想法很有希望,那就是训练神经网络,通过对抗性示例包含在训练数据中来提高识别神经网络的健壮性。他说:“通过这种方式,神经网络‘学会’对对抗性示例有一定的抵抗力。”

费尔南德斯说,在机器学习的核心发现这样的缺陷并不令人惊讶,因为系统通常在普及之前并不会经过良好的测试。“随着机器学习变得越来越普遍,安全研究人员会开始从对抗的角度来研究它,并发现其中一些可以利用的东西,这是很自然的,” 费尔南德斯如是指出。

上一页  [1] [2] [3] [4]  下一页

【声明】:黑吧安全网(http://www.myhack58.com)登载此文出于传递更多信息之目的,并不代表本站赞同其观点和对其真实性负责,仅适于网络安全技术爱好者学习研究使用,学习中请遵循国家相关法律法规。如有问题请联系我们,联系邮箱admin@myhack58.com,我们会在最短的时间内进行处理。
  • 最新更新
    • 相关阅读
      • 本类热门
        • 最近下载