期刊文献+
共找到269篇文章
< 1 2 14 >
每页显示 20 50 100
基于特征拓扑融合的黑盒图对抗攻击
1
作者 郭宇星 姚凯旋 +2 位作者 王智强 温亮亮 梁吉业 《计算机科学》 CSCD 北大核心 2024年第1期355-362,共8页
在大数据时代,数据之间的紧密关联性是普遍存在的,图数据分析挖掘已经成为大数据技术的重要发展趋势。近几年,图神经网络作为一种新型的图表示学习工具引起了学术界和工业界的广泛关注。目前图神经网络已经在很多实际应用中取得了巨大... 在大数据时代,数据之间的紧密关联性是普遍存在的,图数据分析挖掘已经成为大数据技术的重要发展趋势。近几年,图神经网络作为一种新型的图表示学习工具引起了学术界和工业界的广泛关注。目前图神经网络已经在很多实际应用中取得了巨大的成功。最近人工智能的安全性和可信性成为了人们关注的重点,很多工作主要针对图像等规则数据的深度学习对抗攻击。文中主要聚焦于图数据这种典型非欧氏结构的黑盒对抗攻击问题,在图神经网络模型信息(结构、参数)未知的情况下,对图数据进行非随机微小扰动,从而实现对模型的对抗攻击,模型性能随之下降。基于节点选择的对抗攻击策略是一类重要的黑盒图对抗攻击方法,但现有方法在选择对抗攻击节点时主要依靠节点的拓扑结构信息(如度信息)而未充分考虑节点的特征信息,文中面向引文网络提出了一种基于特征拓扑融合的黑盒图对抗攻击方法。所提方法在选择重要性节点的过程中将图节点特征信息和拓扑结构信息进行融合,使得选出的节点在特征和拓扑两方面对于图数据都是重要的,攻击者对挑选出的重要节点施加不易察觉的扰动后对图数据产生了较大影响,进而实现对图神经网络模型的攻击。在3个基准数据集上进行实验,结果表明,所提出的攻击策略在模型参数未知的情况下能显著降低模型性能,且攻击效果优于现有的方法。 展开更多
关键词 图神经网络 黑盒对抗攻击 信息熵 节点重要性 引文网络
下载PDF
基于JSMA对抗攻击的去除深度神经网络后门防御方案
2
作者 张光华 刘亦纯 +1 位作者 王鹤 胡勃宁 《信息网络安全》 CSCD 北大核心 2024年第4期545-554,共10页
深度学习模型缺乏透明性和可解释性,在推理阶段触发恶意攻击者设定的后门时,模型会出现异常行为,导致性能下降。针对此问题,文章提出一种基于JSMA对抗攻击的去除深度神经网络后门防御方案。首先通过模拟JSMA产生的特殊扰动还原潜藏的后... 深度学习模型缺乏透明性和可解释性,在推理阶段触发恶意攻击者设定的后门时,模型会出现异常行为,导致性能下降。针对此问题,文章提出一种基于JSMA对抗攻击的去除深度神经网络后门防御方案。首先通过模拟JSMA产生的特殊扰动还原潜藏的后门触发器,并以此为基础模拟还原后门触发图案;然后采用热力图定位还原后隐藏触发器的权重位置;最后使用脊回归函数将权重置零,有效去除深度神经网络中的后门。在MNIST和CIFAR10数据集上对模型性能进行测试,并评估去除后门后的模型性能,实验结果表明,文章所提方案能有效去除深度神经网络模型中的后门,而深度神经网络的测试精度仅下降了不到3%。 展开更多
关键词 深度学习模型 对抗攻击 JSMA 脊回归函数
下载PDF
面向智能无人通信系统的因果性对抗攻击生成算法
3
作者 禹树文 许威 姚嘉铖 《通信学报》 EI CSCD 北大核心 2024年第1期54-62,共9页
考虑到基于梯度的对抗攻击生成算法在实际通信系统部署中面临着因果性问题,提出了一种因果性对抗攻击生成算法。利用长短期记忆网络的序列输入输出特征与时序记忆能力,在满足实际应用中存在的因果性约束前提下,有效提取通信信号的时序... 考虑到基于梯度的对抗攻击生成算法在实际通信系统部署中面临着因果性问题,提出了一种因果性对抗攻击生成算法。利用长短期记忆网络的序列输入输出特征与时序记忆能力,在满足实际应用中存在的因果性约束前提下,有效提取通信信号的时序相关性,增强针对无人通信系统的对抗攻击性能。仿真结果表明,所提算法在同等条件下的攻击性能优于泛用对抗扰动等现有的因果性对抗攻击生成算法。 展开更多
关键词 智能通信系统 对抗攻击 深度学习 因果系统 长短期记忆网络
下载PDF
基于智能进化算法的可见水印对抗攻击
4
作者 季俊豪 张玉书 +2 位作者 赵若宇 温文媖 董理 《计算机工程与科学》 CSCD 北大核心 2024年第1期63-71,共9页
随着公民版权意识的提高,越来越多含有水印的图像出现在生活中。然而,现有的研究表明,含有水印的图像会导致神经网络分类错误,这对神经网络的普及和应用构成了巨大的威胁。对抗训练是解决这类问题的防御方法之一,但是需要使用大量的水... 随着公民版权意识的提高,越来越多含有水印的图像出现在生活中。然而,现有的研究表明,含有水印的图像会导致神经网络分类错误,这对神经网络的普及和应用构成了巨大的威胁。对抗训练是解决这类问题的防御方法之一,但是需要使用大量的水印对抗样本作为训练数据。为此,提出了一种基于智能进化算法的可见水印对抗攻击方法来生成高强度的水印对抗样本。该方法不仅能快速生成水印对抗样本,而且还能使其最大程度地攻击神经网络。此外,该方法还加入了图像质量评价指标来约束图像的视觉损失,从而使水印对抗样本更加美观。实验结果表明,所提方法相比于基准水印攻击方法时间复杂度更低,相比于基准黑盒攻击对神经网络攻击成功率更高。 展开更多
关键词 对抗攻击 水印 图像质量评价指标 优化 神经网络
下载PDF
一种面向联邦学习对抗攻击的选择性防御策略
5
作者 陈卓 江辉 周杨 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第3期1119-1127,共9页
联邦学习(FL)基于终端本地的学习以及终端与服务器之间持续地模型参数交互完成模型训练,有效地解决了集中式机器学习模型存在的数据泄露和隐私风险。但由于参与联邦学习的多个恶意终端能够在进行本地学习的过程中通过输入微小扰动即可... 联邦学习(FL)基于终端本地的学习以及终端与服务器之间持续地模型参数交互完成模型训练,有效地解决了集中式机器学习模型存在的数据泄露和隐私风险。但由于参与联邦学习的多个恶意终端能够在进行本地学习的过程中通过输入微小扰动即可实现对抗性攻击,并进而导致全局模型输出不正确的结果。该文提出一种有效的联邦防御策略-SelectiveFL,该策略首先建立起一个选择性联邦防御框架,然后通过在终端进行对抗性训练提取攻击特性的基础上,在服务器端对上传的本地模型更新的同时根据攻击特性进行选择性聚合,最终得到多个适应性的防御模型。该文在多个具有代表性的基准数据集上评估了所提出的防御方法。实验结果表明,与已有研究工作相比能够提升模型准确率提高了2%~11%。 展开更多
关键词 联邦学习 对抗攻击 防御机制 对抗性训练
下载PDF
一种加权最大化激活的无数据通用对抗攻击
6
作者 杨武 刘依然 +1 位作者 冯欣 明镝 《重庆理工大学学报(自然科学)》 北大核心 2023年第10期220-228,共9页
对抗攻击产生的对抗样本能够影响神经网络在图像分类任务中的预测结果。由于对抗样本难以察觉,具有迁移性,即同一个对抗样本能干扰不同结构模型的判断,因此制作对抗扰动,生成对抗样本在检测模型缺陷等方面有重大意义。近几年提出的无数... 对抗攻击产生的对抗样本能够影响神经网络在图像分类任务中的预测结果。由于对抗样本难以察觉,具有迁移性,即同一个对抗样本能干扰不同结构模型的判断,因此制作对抗扰动,生成对抗样本在检测模型缺陷等方面有重大意义。近几年提出的无数据通用对抗攻击在无数据条件下仅通过最大化激活所有卷积层的激活值来制作对抗扰动,更加接近模型真实应用场景,但忽略了不同的卷积层提取的特征差异,导致对抗样本迁移性较差。现提出一种加权最大化激活的无数据通用攻击方法,为每个卷积层赋予相应的权重,利用不同卷积层激活值对通用扰动的影响,提高对抗样本的迁移性。在ImageNet验证集上的实验表明,加权最大化激活攻击方法相比于其他方法具有良好的攻击效果;消融实验表明,通用对抗扰动能够从浅层卷积层学习泛化特征,具有更好的迁移性。 展开更多
关键词 图像分类 对抗攻击 加权最大化激活 迁移性
下载PDF
针对人脸识别卷积神经网络的局部背景区域对抗攻击 被引量:2
7
作者 张晨晨 王帅 +5 位作者 王文一 李迪然 李南 鲍华 李淑琪 高国庆 《光电工程》 CAS CSCD 北大核心 2023年第1期111-122,共12页
基于卷积神经网络(CNN)的识别器,由于其高识别率已经在人脸识别中广泛应用,但其滥用也带来隐私保护问题。本文提出了局部背景区域的人脸对抗攻击(BALA),可以作为一种针对CNN人脸识别器的隐私保护方案。局部背景区域添加扰动克服了现有... 基于卷积神经网络(CNN)的识别器,由于其高识别率已经在人脸识别中广泛应用,但其滥用也带来隐私保护问题。本文提出了局部背景区域的人脸对抗攻击(BALA),可以作为一种针对CNN人脸识别器的隐私保护方案。局部背景区域添加扰动克服了现有方法在前景人脸区域添加扰动所导致的原始面部特征损失的缺点。BALA使用了两阶段损失函数以及灰度化、均匀化方法,在更好地生成对抗块的同时提升了数字域到物理域的对抗效果。在照片重拍和场景实拍实验中,BALA对VGG-FACE人脸识别器的攻击成功率(ASR)比现有方法分别提升12%和3.8%。 展开更多
关键词 人脸识别 CNN 对抗攻击 背景 物理域
下载PDF
基于对抗攻击的社交认证安全方案研究
8
作者 周炜 王超 +1 位作者 渠忠伟 胡克勇 《青岛理工大学学报》 CAS 2023年第3期138-145,共8页
社交网络服务(SNS)如Facebook、微信正在逐步融入人们的生活,基于用户的社交信息,新型的社交认证系统可以利用用户好友等社交知识对用户身份进行认证。然而,黑客可以利用用户在社交网络中公开的大量社交图片信息,训练卷积神经网络用以... 社交网络服务(SNS)如Facebook、微信正在逐步融入人们的生活,基于用户的社交信息,新型的社交认证系统可以利用用户好友等社交知识对用户身份进行认证。然而,黑客可以利用用户在社交网络中公开的大量社交图片信息,训练卷积神经网络用以推测好友姓名等社交知识,从而实现对用户社交认证系统的攻击。基于Grad-Cam和DeepFool算法,提出一种新的图像对抗攻击算法Lpixel attack,通过修改小图像关键区域产生小干扰范围的对抗样本,在保证用户成功识别的基础上导致模型攻击失效。实验表明提出的算法能够有效防御基于卷积神经网络的社交认证攻击,从而保证社交系统账户的安全性。 展开更多
关键词 社交认证 小图像对抗攻击算法 对抗攻击 小图像 卷积神经网络
下载PDF
SAR图像对抗攻击的进展与展望
9
作者 陈思伟 周鹏 《信息对抗技术》 2023年第4期171-188,共18页
合成孔径雷达(synthetic aperture radar,SAR)在民用和军用领域得到广泛应用。对SAR电子干扰一直是军事侦察领域对抗博弈的重点。不同于人工易识别的干扰技术,基于人工难察觉的微扰样本的对抗攻击,近年来在光学图像处理等计算机视觉领... 合成孔径雷达(synthetic aperture radar,SAR)在民用和军用领域得到广泛应用。对SAR电子干扰一直是军事侦察领域对抗博弈的重点。不同于人工易识别的干扰技术,基于人工难察觉的微扰样本的对抗攻击,近年来在光学图像处理等计算机视觉领域得到了广泛研究。目前,对抗样本生成技术也已逐步应用于SAR图像对抗攻击,给SAR信息安全带来了新挑战。为此,对SAR图像对抗攻击技术方法的研究进展进行总结,主要包括图像对抗攻击的基本模型和方式,SAR图像对抗攻击原理与方法。针对典型深度学习目标检测算法,开展了对抗攻击下SAR图像目标检测性能分析,验证了对抗攻击的效果。最后,从算法脆弱机制与算法加固、融合机理的对抗攻击方法、对新体制成像雷达对抗攻击、对抗攻击识别与防御等4个方面对SAR图像对抗攻击领域的研究进行了展望。 展开更多
关键词 合成孔径雷达 对抗攻击 干扰 深度学习 目标检测
下载PDF
面向目标检测的对抗攻击与防御综述
10
作者 汪欣欣 陈晶 +4 位作者 何琨 张子君 杜瑞颖 李瞧 佘计思 《通信学报》 EI CSCD 北大核心 2023年第11期260-277,共18页
针对近年来目标检测对抗攻防领域的研究发展,首先介绍了目标检测及对抗学习的相关术语和概念。其次,按照方法的演进过程,全面回顾并梳理了目标检测中对抗攻击和防御方法的研究成果,特别地,根据攻击者知识及深度学习生命周期,对攻击方法... 针对近年来目标检测对抗攻防领域的研究发展,首先介绍了目标检测及对抗学习的相关术语和概念。其次,按照方法的演进过程,全面回顾并梳理了目标检测中对抗攻击和防御方法的研究成果,特别地,根据攻击者知识及深度学习生命周期,对攻击方法和防御策略进行了分类,并对不同方法之间的特点和联系进行了深入分析和讨论。最后,鉴于现有研究的优势和不足,总结了目标检测中对抗攻防研究面临的挑战和有待进一步探索的方向。 展开更多
关键词 目标检测 对抗攻击 对抗防御 鲁棒性 可转移性
下载PDF
采用GAN的肺部疾病诊断模型黑盒可迁移性对抗攻击方法
11
作者 王小银 王丹 +1 位作者 孙家泽 杨宜康 《西安交通大学学报》 EI CAS CSCD 北大核心 2023年第10期196-206,220,共12页
针对现有对抗攻击方法在黑盒场景下攻击成功率不高以及生成质量低等问题,提出了一种基于生成对抗网络(GAN)的肺部疾病诊断模型黑盒可迁移性对抗攻击方法。以肺部医学影像为基础,依托残差神经网络,在生成器中设计基于扩张卷积的残差块和... 针对现有对抗攻击方法在黑盒场景下攻击成功率不高以及生成质量低等问题,提出了一种基于生成对抗网络(GAN)的肺部疾病诊断模型黑盒可迁移性对抗攻击方法。以肺部医学影像为基础,依托残差神经网络,在生成器中设计基于扩张卷积的残差块和金字塔分割注意力机制,以提高网络在更细粒度上的多尺度特征表达能力;设置带有辅助分类器的判别器对样本进行正确分类,并且添加攻击者实施对抗训练,以增强对抗样本的攻击能力和稳定GAN的训练。运用无数据黑盒对抗攻击框架训练替代模型,实现可迁移性对抗攻击,获得高黑盒攻击成功率。所提方法在目标攻击和无目标攻击任务下的对抗攻击成功率分别达到了68.95%和79.34%,与其他黑盒场景下基于GAN的对抗方法相比,迁移攻击成功率更高,且生成的对抗样本更接近真实样本。所提方法解决了传统基于GAN的攻击方法难以捕获肺部影像细节特征而导致无法获得更优的对抗性能的问题,对在实际应用场景下提高肺部疾病诊断模型的安全性和鲁棒性提供了参考方案。 展开更多
关键词 肺部疾病诊断模型 黑盒对抗攻击 生成对抗网络 可迁移性
下载PDF
DE-JSMA:面向SAR-ATR模型的稀疏对抗攻击算法
12
作者 金夏颖 李扬 潘泉 《西北工业大学学报》 EI CAS CSCD 北大核心 2023年第6期1170-1178,共9页
DNN易受攻击的特点使得以智能算法为识别手段的SAR-ATR系统也存在一定脆弱性。为验证其脆弱性,结合SAR图像特征稀疏的特点,在显著图对抗攻击算法和差分进化算法基础上提出了DE-JSMA稀疏攻击算法,精确筛选出对模型推理结果影响较大的显... DNN易受攻击的特点使得以智能算法为识别手段的SAR-ATR系统也存在一定脆弱性。为验证其脆弱性,结合SAR图像特征稀疏的特点,在显著图对抗攻击算法和差分进化算法基础上提出了DE-JSMA稀疏攻击算法,精确筛选出对模型推理结果影响较大的显著特征后,为显著特征优化出合适的特征值。为了更全面地验证攻击的有效性,构建了一种结合攻击成功率和对抗样本平均置信度的新指标Fc值。实验结果表明,在没有增加过多耗时,且保证高攻击成功率情况下,DE-JSMA将只能定向攻击的JSMA扩展到了非定向攻击场景,且在2种攻击场景下均实现了可靠性更高、稀疏性更优的稀疏对抗攻击,仅扰动0.31%与0.85%的像素即可达到100%与78.79%以上的非定向与定向攻击成功率。 展开更多
关键词 合成孔径雷达 自动目标识别 深度学习 对抗攻击 稀疏攻击
下载PDF
面向骨架行为识别的角空间对抗攻击方法
13
作者 曹男 刁云峰 +3 位作者 黄垠钦 杜润 李怀仙 程天健 《计算机工程与应用》 CSCD 北大核心 2023年第14期260-267,共8页
深度学习模型在基于骨架数据的行为识别任务中取得了较好的性能。然而,骨架行为识别模型的鲁棒性最近受到了质疑,因为它们很容易受到对抗攻击的威胁。目前现有的行为识别白盒攻击方法无法对对抗骨架动作样本的独特空间结构进行严格约束... 深度学习模型在基于骨架数据的行为识别任务中取得了较好的性能。然而,骨架行为识别模型的鲁棒性最近受到了质疑,因为它们很容易受到对抗攻击的威胁。目前现有的行为识别白盒攻击方法无法对对抗骨架动作样本的独特空间结构进行严格约束,其生成的对抗骨架动作样本为非流形对抗样本,即对抗分布远离了原有的数据分布,使得骨架动作不自然,很容易被人眼察觉。提出了一种利用球坐标系表示骨架结构的角空间对抗攻击方法,球坐标攻击(spherical coordinate attack,SCA)。在公开数据集上的实验结果表明,SCA可以发现大部分存在流形空间上的对抗样本,而目前已有的行为识别白盒攻击方法只能寻找到非流形空间上的对抗样本。 展开更多
关键词 对抗攻击 骨架行为识别 深度学习 球坐标 流形对抗样本
下载PDF
面向隐私保护的稀疏对抗攻击样本生成方法
14
作者 王涛 马川 +1 位作者 陈淑平 尤殿龙 《燕山大学学报》 CAS 北大核心 2023年第6期538-549,共12页
为了应对视频监控和社交网络分享等真实场景中深度神经网络对图像信息的过度挖掘,提出了一种稀疏对抗攻击样本的生成方法,旨在对抗深度神经网络,致其错误分类,无法完成后续未授权任务。对扰动像素数量、扰动幅度以及扰动位置等多个目标... 为了应对视频监控和社交网络分享等真实场景中深度神经网络对图像信息的过度挖掘,提出了一种稀疏对抗攻击样本的生成方法,旨在对抗深度神经网络,致其错误分类,无法完成后续未授权任务。对扰动像素数量、扰动幅度以及扰动位置等多个目标进行优化,并基于抽样方案简捷高效地生成对抗样本。与其他5种相关方法对比了对抗成功率、扰动像素数量、扰动幅度、扰动位置和优化效果等指标,并根据扰动像素的分布情况分析了目标模型的分类空间特征。通过迁移测试和在目标检测任务中的应用,对本文算法的泛化能力和实用性进行了评估。实验结果表明,算法在扰动率不超过1%的情况下,依然可以保证对深度神经网络的有效对抗,并显著优化了扰动像素幅度及扰动位置,对原始图像的破坏性更小,扰动更加不易感知。算法具有良好的泛化性和实用性。 展开更多
关键词 深度神经网络 稀疏对抗攻击 对抗样本 抽样 隐私保护
下载PDF
基于义原级语句稀释法的文本对抗攻击能力强化方法
15
作者 叶文滔 张敏 陈仪香 《软件学报》 EI CSCD 北大核心 2023年第7期3313-3328,共16页
随着近年来机器学习方法在自然语言处理领域的应用越发广泛,自然语言处理任务的安全性也引起了研究者们重视.现有研究发现,向样本施加细微扰动可能令机器学习模型得到错误结果,这种方法称之为对抗攻击.文本对抗攻击能够有效发现自然语... 随着近年来机器学习方法在自然语言处理领域的应用越发广泛,自然语言处理任务的安全性也引起了研究者们重视.现有研究发现,向样本施加细微扰动可能令机器学习模型得到错误结果,这种方法称之为对抗攻击.文本对抗攻击能够有效发现自然语言模型的弱点从而进行改进.然而,目前的文本对抗攻击方法都着重于设计复杂的对抗样本生成策略,对抗攻击成功率提升有限,且对样本进行高侵入性修改容易导致样本质量下降.如何更简单、更高效地提升对抗攻击效果,并输出高质量对抗样本已经成为重要需求.为解决此问题,从改进对抗攻击过程的新角度,设计了义原级语句稀释法(sememe-level sentence dilution algorithm,SSDA)及稀释池构建算法(dilution pool construction algorithm,DPCA).SSDA是一种可以自由嵌入经典对抗攻击过程中的新过程,它利用DPCA构建的稀释池先对输入样本进行稀释,再进行对抗样本生成.在未知文本数据集与自然语言模型的情况下,不仅能够提升任意文本对抗攻击方法的攻击成功率,还能够获得相较于原方法更高的对抗样本质量.通过对不同文本数据集、稀释池规模、自然语言模型,以及多种主流文本对抗攻击方法进行对照实验,验证了SSDA对文本对抗攻击方法成功率的提升效果以及DPCA构建的稀释池对SSDA稀释能力的提升效果.实验结果显示,SSDA稀释过程能够比经典对抗攻击过程发现更多模型漏洞,且DPCA能够帮助SSDA在提升成功率的同时进一步提升对抗样本的文本质量. 展开更多
关键词 对抗攻击 机器学习 自然语言处理 边界值分析 义原
下载PDF
时空梯度迭代的声纹对抗攻击算法STI-FGSM
16
作者 李烁 顾益军 谭昊 《计算机工程与应用》 CSCD 北大核心 2023年第21期151-158,共8页
为了解决当前声纹对抗攻击算法梯度信息利用不足、迁移性较差等问题,针对说话人识别模型,提出一种时空迭代快速梯度符号法(space-time iterative fast gradient sign method,STI-FGSM)的声纹对抗攻击算法。该算法基于动量迭代快速梯度... 为了解决当前声纹对抗攻击算法梯度信息利用不足、迁移性较差等问题,针对说话人识别模型,提出一种时空迭代快速梯度符号法(space-time iterative fast gradient sign method,STI-FGSM)的声纹对抗攻击算法。该算法基于动量迭代快速梯度符号法(momentum iterative fast gradient sign method,MI-FGSM),融合动量和时序梯度信息,使用下一步观测梯度修正扰动更新方向。引入空间梯度信息,充分学习语音样本区域信息,实现不同区域的空间梯度动量累加。结合扰动集成的方法,充分利用已知的白盒模型,实现多模型扰动叠加,进一步提高黑盒攻击成功率。实验结果表明,STI-FGSM算法针对ResNetSE34V2、TDy_ResNet34_half、x-vector、ECAPA-TDNN四种说话人识别模型,均能取得较强的白盒攻击,并实现较高的黑盒攻击成功率,其性能优于其他算法。 展开更多
关键词 说话人识别 对抗攻击 梯度 扰动集成 白盒攻击 黑盒攻击 迁移性
下载PDF
基于输入通道拆分的对抗攻击迁移性增强算法
17
作者 郑德生 陈继鑫 +4 位作者 周静 柯武平 陆超 周永 仇钎 《计算机工程》 CAS CSCD 北大核心 2023年第1期130-137,共8页
深度神经网络已被应用于人脸识别、自动驾驶等场景中,但容易受到对抗样本的攻击。对抗样本的生成方法被分为白盒攻击和黑盒攻击,当对抗攻击算法攻击白盒模型时存在过拟合问题,导致生成对抗样本的迁移性降低。提出一种用于生成高迁移性... 深度神经网络已被应用于人脸识别、自动驾驶等场景中,但容易受到对抗样本的攻击。对抗样本的生成方法被分为白盒攻击和黑盒攻击,当对抗攻击算法攻击白盒模型时存在过拟合问题,导致生成对抗样本的迁移性降低。提出一种用于生成高迁移性对抗样本的对抗攻击算法CSA。在每次迭代过程中,通过对输入RGB图片的通道进行拆分,得到三张具有一个通道的输入图片,并对其进行零值填充,获得三张具有三个通道的输入图片。将最终得到的图片与原始RGB输入图片共同传入到模型中进行梯度计算,调整原始梯度的更新方向,避免出现局部最优。在此基础上,通过符号法生成对抗样本。在ImageNet数据集上的实验验证该算法的有效性,结果表明,CSA算法能够有效提高对抗攻击的迁移性,在四种常规训练模型上的攻击成功率平均为84.2%,与DIM、TIM结合所得DI-TI-CSA算法在三种对抗训练黑盒模型上的攻击成功率平均为94.7%,对七种防御模型的攻击成功率平均为91.8%。 展开更多
关键词 对抗攻击 迁移性增强 对抗样本 白盒模型 ImageNet数据集
下载PDF
基于多变量时序数据的对抗攻击与防御方法
18
作者 刘坤 曾恩 +2 位作者 刘博涵 李俊达 李江荣 《北京工业大学学报》 CAS CSCD 北大核心 2023年第4期415-423,共9页
为了保证时序数据攻击检测模型的安全性,提出了基于多变量时间序列数据的对抗攻击与对抗防御方法.首先,针对基于自编码器的攻击检测模型,设计了在测试阶段实施的逃逸攻击.其次,针对设计的对抗攻击样本,提出了一种基于雅克比(Jacobian)... 为了保证时序数据攻击检测模型的安全性,提出了基于多变量时间序列数据的对抗攻击与对抗防御方法.首先,针对基于自编码器的攻击检测模型,设计了在测试阶段实施的逃逸攻击.其次,针对设计的对抗攻击样本,提出了一种基于雅克比(Jacobian)正则化方法的对抗攻击防御策略,将模型训练过程中的Jacobian矩阵作为目标函数中的正则项,提高了深度学习模型对对抗攻击的防御能力.在工业水处理数据集BATADAL上进行实验,验证了所提出的对抗攻击方法和对抗防御方法的有效性. 展开更多
关键词 多变量时序数据 攻击检测 对抗攻击 对抗防御 自编码器 Jacobian正则化
下载PDF
基于变分量子分类器的量子对抗攻击生成算法
19
作者 侯晓凯 吴热冰 +1 位作者 王子竹 王晓霆 《电子科技大学学报》 EI CAS CSCD 北大核心 2023年第2期162-167,共6页
量子分类器在扰动攻击下的脆弱性是量子机器学习中的基本理论问题之一。量子分类器的脆弱性是指其随着量子系统规模增大而更容易因为一些微小的扰动而分类错误的性质。这种微小扰动也被称为量子对抗攻击,而如何生成尽可能小的扰动使得... 量子分类器在扰动攻击下的脆弱性是量子机器学习中的基本理论问题之一。量子分类器的脆弱性是指其随着量子系统规模增大而更容易因为一些微小的扰动而分类错误的性质。这种微小扰动也被称为量子对抗攻击,而如何生成尽可能小的扰动使得量子分类器失效仍是一个开放问题。针对这一问题,提出了一种新的量子对抗攻击生成算法——量子混淆算法。该算法利用量子分类器关于输入数据的梯度信息来生成扰动,从而使得已训练好的量子分类器失效。数值仿真结果表明,与已有的量子对抗攻击方法相比,量子混淆算法可以通过更小的扰动实现对抗攻击,为理解分类器的有效性和脆弱性提供了新的思路。 展开更多
关键词 量子对抗攻击 量子分类器 量子计算 量子机器学习
下载PDF
针对车牌识别系统的双重对抗攻击
20
作者 陈先意 顾军 +3 位作者 颜凯 江栋 许林峰 付章杰 《网络与信息安全学报》 2023年第3期16-27,共12页
使用深度神经网络的人工智能系统面对对抗样本的攻击表现出极大的脆弱性。因此,在基于深度神经网络的车牌识别系统(LPR,license plate recognition)场景下,提出针对车牌识别系统的双重对抗攻击(DAA,doubleadversarialattack)方法。通过... 使用深度神经网络的人工智能系统面对对抗样本的攻击表现出极大的脆弱性。因此,在基于深度神经网络的车牌识别系统(LPR,license plate recognition)场景下,提出针对车牌识别系统的双重对抗攻击(DAA,doubleadversarialattack)方法。通过添加对抗补丁到车牌的图案位置,使LPR的目标检测子系统不能检测到车牌类;通过在车牌号上添加不规则的单连通区域扰动斑点以模拟自然形成的铁锈、污渍等,使LPR的车牌号识别子系统产生误识别。针对车牌研究设计不同形状的对抗补丁、不同颜色的对抗斑点,以此产生对抗车牌,并迁移到物理世界中。实验结果表明,设计出的对抗样本既不会被人眼所察觉,也能够欺骗车牌识别系统,如EasyPR,在物理世界中的攻击成功率能够达到99%。关于LPR的对抗攻击及深度学习的脆弱性研究,对提高车牌识别模型的鲁棒性具有积极促进意义。 展开更多
关键词 车牌识别 对抗补丁 对抗斑点 对抗攻击
下载PDF
上一页 1 2 14 下一页 到第
使用帮助 返回顶部