车牌识别系统的黑盒对抗攻击

深度神经网络(Deep neural network,DNN)作为最常用的深度学习方法之一,广泛应用于各个领域.然而,DNN容易受到对抗攻击的威胁,因此通过对抗攻击来检测应用系统中DNN的漏洞至关重要.针对车牌识别系统进行漏洞检测,在完全未知模型内部结构信息的前提下展开黑盒攻击,发现商用车牌识别系统存在安全漏洞.提出基于精英策略的非支配排序遗传算法(NSGA-II)的车牌识别黑盒攻击方法,仅获得输出类标及对应置信度,即可产生对环境变化较为鲁棒的对抗样本,而且该算法将扰动控制为纯黑色块,可用淤泥块代替,具有较强的迷惑性.为验证本方法在真实场景的攻击可复现性,分别在实验室和真实环境中对车牌识别系统...

Full description

Saved in:
Bibliographic Details
Published in自动化学报 Vol. 47; no. 1; pp. 121 - 135
Main Authors 陈晋音, 沈诗婧, 苏蒙蒙, 郑海斌, 熊晖
Format Journal Article
LanguageChinese
Published 浙江工业大学信息工程学院 杭州310023 2021
Subjects
Online AccessGet full text
ISSN0254-4156
DOI10.16383/j.aas.c190488

Cover

More Information
Summary:深度神经网络(Deep neural network,DNN)作为最常用的深度学习方法之一,广泛应用于各个领域.然而,DNN容易受到对抗攻击的威胁,因此通过对抗攻击来检测应用系统中DNN的漏洞至关重要.针对车牌识别系统进行漏洞检测,在完全未知模型内部结构信息的前提下展开黑盒攻击,发现商用车牌识别系统存在安全漏洞.提出基于精英策略的非支配排序遗传算法(NSGA-II)的车牌识别黑盒攻击方法,仅获得输出类标及对应置信度,即可产生对环境变化较为鲁棒的对抗样本,而且该算法将扰动控制为纯黑色块,可用淤泥块代替,具有较强的迷惑性.为验证本方法在真实场景的攻击可复现性,分别在实验室和真实环境中对车牌识别系统展开攻击,并且将对抗样本用于开源的商业软件中进行测试,验证了攻击的迁移性.
ISSN:0254-4156
DOI:10.16383/j.aas.c190488