首页> 中文会议>第五届中国互联网安全大会 >对深度学习的逃逸攻击——探究人工智能系统中的安全盲区

对深度学习的逃逸攻击——探究人工智能系统中的安全盲区

摘要

虽然深度学习系统经过训练可以实现对正常输入的低的误判率,但是当攻击者用系统化的方法生成误判样本的时候,攻击的效率就可以接近100%,从而实现稳定的逃逸攻击."逃逸攻击就是要把0.001%的误判率变成100%的攻击成功率".本文的目的是介绍被大众所忽视的人工智能安全问题。虽然深度学习在处理自然生成的语音图像等已达到相当高的准确率,但是对恶意构造的输入仍然有巨大的提升空间。虽然深度学习系统经过训练可以实现对正常输入的很低的误判率,但是当攻击者用系统化的方法能够生成误判样本的时候,攻击的效率就可以接近l00%,从而实现稳定的逃逸攻击。随着人工智能应用的普及,相信对逃逸攻击的研究也会越来越深入。这些研究包括对对抗样本生成以及对增强深度学习对抗能力的研究。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号