论文部分内容阅读
随着深度学习的广泛应用,其安全性也成为研究者关注的热点。深度学习模型极易受到对抗样本的攻击,这限制了其在安全性要求较高场景下的应用。已有的对抗样本防御策略大多集中在计算机视觉、语音处理等领域,而对于一些交叉学科的应用场景,现有的防御策略不适用,存在计算资源限制、静态模型易受攻击等缺点。针对这些问题,我们研究了两类应用场景下深度学习的安全性。(1)针对网络流量分类领域,我们分析了网络流对抗样本生成原理,提出了有效的网络流量黑盒攻击策略。同时改进传统的对抗训练计算复杂度高的缺点,提出了批次对抗训练和增强对抗训练分别防御白盒攻击与黑盒攻击。在真实流量数据集上的实验结果表明,改进的对抗训练方式将对抗样本的分类准确率提高了42.02%。(2)针对边缘智能计算环境,基于移动目标防御(Moving Target Defense:MTD)思想,同时结合对抗训练、知识蒸馏及博弈论等多种方法,提出了针对边缘智能安全的防御框架—EI-MTD。该防御框架首先从硬件资源丰富的云数据中心对抗训练教师模型,其次通过提出的差异性知识蒸馏算法得到一组成员模型,最后根据Bayesian Stackelberg博弈动态调度成员模型。这种动态防御策略可以有效的降低黑盒攻击者找到最优的代理模型。实验证明,EI-MTD将目前黑盒攻击最好的方法M-DI2-FGSM生成对抗样本的准确率提高了41.12%。