期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
基于引导扩散模型的自然对抗补丁生成方法
1
作者 何琨 佘计思 +3 位作者 张子君 陈晶 汪欣欣 杜瑞颖 《电子学报》 EI CAS CSCD 北大核心 2024年第2期564-573,共10页
近年来,物理世界中的对抗补丁攻击因其对深度学习模型安全的影响而引起了广泛关注.现有的工作主要集中在生成在物理世界中攻击性能良好的对抗补丁,没有考虑到对抗补丁图案与自然图像的差别,因此生成的对抗补丁往往不自然且容易被观察者... 近年来,物理世界中的对抗补丁攻击因其对深度学习模型安全的影响而引起了广泛关注.现有的工作主要集中在生成在物理世界中攻击性能良好的对抗补丁,没有考虑到对抗补丁图案与自然图像的差别,因此生成的对抗补丁往往不自然且容易被观察者发现.为了解决这个问题,本文提出了一种基于引导的扩散模型的自然对抗补丁生成方法.具体而言,本文通过解析目标检测器的输出构建预测对抗补丁攻击成功率的预测器,利用该预测器的梯度作为条件引导预训练的扩散模型的逆扩散过程,从而生成自然度更高且保持高攻击成功率的对抗补丁.本文在数字世界和物理世界中进行了广泛的实验,评估了对抗补丁针对各种目标检测模型的攻击效果以及对抗补丁的自然度.实验结果表明,通过将所构建的攻击成功率预测器与扩散模型相结合,本文的方法能够生成比现有方案更自然的对抗补丁,同时保持攻击性能. 展开更多
关键词 目标检测 对抗补丁 扩散模型 对抗样本 对抗攻击 深度学习
下载PDF
基于随机平滑的通用黑盒认证防御
2
作者 李瞧 陈晶 +3 位作者 张子君 何琨 杜瑞颖 汪欣欣 《计算机学报》 EI CAS CSCD 北大核心 2024年第3期690-702,共13页
近年来,基于深度神经网络(DNNs)的图像分类模型在人脸识别、自动驾驶等关键领域得到了广泛应用,并展现出卓越的性能.然而,深度神经网络容易受到对抗样本攻击,从而导致模型错误分类.为此,提升模型自身的鲁棒性已成为一个主要的研究方向.... 近年来,基于深度神经网络(DNNs)的图像分类模型在人脸识别、自动驾驶等关键领域得到了广泛应用,并展现出卓越的性能.然而,深度神经网络容易受到对抗样本攻击,从而导致模型错误分类.为此,提升模型自身的鲁棒性已成为一个主要的研究方向.目前大部分的防御方法,特别是经验防御方法,都基于白盒假设,即防御者拥有模型的详细信息,如模型架构和参数等.然而,模型所有者基于隐私保护的考虑不愿意共享模型信息.即使现有的黑盒假设的防御方法,也无法防御所有范数扰动的攻击,缺乏通用性.因此,本文提出了一种适用于黑盒模型的通用认证防御方法.具体而言,本文首先设计了一个基于查询的无数据替代模型生成方案,在无需模型的训练数据与结构等先验知识的情况下,利用查询和零阶优化生成高质量的替代模型,将认证防御场景转化为白盒,确保模型的隐私安全.其次,本文提出了基于白盒替代模型的随机平滑和噪声选择方法,构建了一个能够抵御任意范数扰动攻击的通用认证防御方案.本文通过分析比较原模型和替代模型在白盒认证防御上的性能,确保了替代模型的有效性.相较于现有方法,本文提出的通用黑盒认证防御方案在CIFAR10数据集上的效果取得了显著的提升.实验结果表明,本文方案可以保持与白盒认证防御方法相似的效果.与之前基于黑盒的认证防御方法相比,本文方案在实现了所有L p的认证防御的同时,认证准确率提升了20%以上.此外,本文方案还能有效保护原始模型的隐私,与原始模型相比,本文方案使成员推理攻击的成功率下降了5.48%. 展开更多
关键词 深度神经网络 认证防御 随机平滑 黑盒模型 替代模型
下载PDF
面向目标检测的对抗攻击与防御综述
3
作者 汪欣欣 陈晶 +4 位作者 何琨 张子君 杜瑞颖 李瞧 佘计思 《通信学报》 EI CSCD 北大核心 2023年第11期260-277,共18页
针对近年来目标检测对抗攻防领域的研究发展,首先介绍了目标检测及对抗学习的相关术语和概念。其次,按照方法的演进过程,全面回顾并梳理了目标检测中对抗攻击和防御方法的研究成果,特别地,根据攻击者知识及深度学习生命周期,对攻击方法... 针对近年来目标检测对抗攻防领域的研究发展,首先介绍了目标检测及对抗学习的相关术语和概念。其次,按照方法的演进过程,全面回顾并梳理了目标检测中对抗攻击和防御方法的研究成果,特别地,根据攻击者知识及深度学习生命周期,对攻击方法和防御策略进行了分类,并对不同方法之间的特点和联系进行了深入分析和讨论。最后,鉴于现有研究的优势和不足,总结了目标检测中对抗攻防研究面临的挑战和有待进一步探索的方向。 展开更多
关键词 目标检测 对抗攻击 对抗防御 鲁棒性 可转移性
下载PDF
基于循环神经网络的Web应用防火墙加固方案 被引量:1
4
作者 朱思猛 杜瑞颖 +1 位作者 陈晶 何琨 《计算机工程》 CAS CSCD 北大核心 2022年第11期120-126,共7页
Web应用防火墙(WAF)基于一组规则检测和过滤进出Web应用程序的HTTP流量,鉴于恶意流量的复杂性,需要对WAF规则进行不断更新以抵御最新的攻击。然而,现有的WAF规则更新方法都需要专业知识来人工设计关于某种攻击的恶意测试流量,并针对该... Web应用防火墙(WAF)基于一组规则检测和过滤进出Web应用程序的HTTP流量,鉴于恶意流量的复杂性,需要对WAF规则进行不断更新以抵御最新的攻击。然而,现有的WAF规则更新方法都需要专业知识来人工设计关于某种攻击的恶意测试流量,并针对该恶意流量生成防护规则,这种方法十分耗时且不能扩展到其他类型的攻击。提出一种基于循环神经网络(RNN)的Web应用防火墙加固方案,在不依赖任何专业知识的情况下自动化加固WAF。使用RNN模型生成恶意攻击样本,从中找到能够绕过WAF的恶意攻击,发现WAF规则存在的安全风险。在此基础上,通过设计评分函数找到恶意攻击样本的重要字符串来生成加固签名,阻止后续类似的攻击,并设计简化的正则表达式作为加固签名的表达形式。在4款WAF上针对SQL注入、跨站脚本攻击和命令注入这3种攻击进行测试,结果显示,该方案成功生成了大量绕过WAF的恶意样本,WAF针对这些样本的平均拦截率仅为52%,与传统突变方案和SQLMap工具相比能够生成更多绕过恶意攻击,在应用加固签名后,WAF的恶意攻击拦截率提升至90%以上且误报率维持为0,表明加固签名成功阻止了这些绕过攻击,验证了所提方案的有效性。 展开更多
关键词 WEB应用防火墙 循环神经网络 SQL注入 跨站脚本 命令注入
下载PDF
基于Tamarin Prover的5G EAP-TLS协议的形式化分析
5
作者 马壮壮 杜瑞颖 +1 位作者 陈晶 何琨 《武汉大学学报(理学版)》 CAS CSCD 北大核心 2023年第5期653-664,共12页
为了保证5G专用网络中移动设备的通信安全,第三代合作伙伴计划(3rd generation partnership project,3GPP)提出了5G可扩展认证协议-传输层安全(extensible authentication protocol-transport layer security,EAP-TLS)。然而,现有的针对... 为了保证5G专用网络中移动设备的通信安全,第三代合作伙伴计划(3rd generation partnership project,3GPP)提出了5G可扩展认证协议-传输层安全(extensible authentication protocol-transport layer security,EAP-TLS)。然而,现有的针对于5G EAP-TLS协议的研究工作较少且缺乏系统性。因此,对5G EAP-TLS协议进行详细的描述,并对该协议进行全面的形式化建模。对5G规范中涉及的所有协议实体以及证书分发机制进行建模,同时从5G规约中提取并建模了与5G EAPTLS协议相关的安全目标。提出证据搜索策略引导符号分析工具Tamarin Prover进行自动化证据搜索,解决了Tamarin Prover在验证复杂模型时验证过程无法终止的问题,实现了5G EAP-TLS安全目标的自动化验证。通过分析验证结果,发现了5G EAP-TLS协议能够满足机密性目标,但难以满足一些认证性目标,同时,揭示了协议存在拒绝服务(denial of service,DoS)攻击和用户通信数据泄露的隐患。针对发现的问题,提出了相应的补丁方案,并通过提出的证据搜索策略引导分析工具Tamarin Prover自动化验证了该补丁方案的有效性。 展开更多
关键词 5G专用网络 EAP-TLS协议 形式化分析 Tamarin Prover 自动化验证
原文传递
PVOP:隐私保护和可验证的深度神经网络预测外包
6
作者 刘冬杰 杜瑞颖 +1 位作者 何琨 陈晶 《武汉大学学报(理学版)》 CAS CSCD 北大核心 2023年第6期699-708,共10页
外包的预测范式引起了各种安全问题,为了解决客户端和模型提供者的隐私问题以及云服务器缺乏可验证性的问题,提出了一个为深度神经网络预测外包提供隐私保护和可验证性的双服务器框架PVOP。在sum-ch基于加性秘密共享和D-A乘法协议的变... 外包的预测范式引起了各种安全问题,为了解决客户端和模型提供者的隐私问题以及云服务器缺乏可验证性的问题,提出了一个为深度神经网络预测外包提供隐私保护和可验证性的双服务器框架PVOP。在sum-ch基于加性秘密共享和D-A乘法协议的变体为深度神经网络预测外包提供隐私保护。由于本文采用不共谋的双服务器系统模型,所以可以利用加性秘密共享技术实现客户端和模型提供者的隐私保护。基于D-A乘法协议的变体实现加性共享份额的相乘。将新设计的交互式证明协议与D-A乘法协议的变体相结合,为深度神经网络模型设计了新的安全协议,在预测外包范式中实现了隐私保护和可验证性。在MNIST和CIFAR-10数据集上的实验验证了本文提出的方案。实验结果表明,大多数最先进的隐私保护类解决方案的时间开销是PVOP的1.6至247.0倍,通信开销是PVOP的1.3至27.7倍。 展开更多
关键词 隐私保护 可验证性 预测外包 深度神经网络
原文传递
面向迁移学习中特征向量差异性的成员推理攻击
7
作者 方倩如 陈晶 +1 位作者 何琨 杜瑞颖 《武汉大学学报(理学版)》 CAS CSCD 北大核心 2023年第1期31-38,共8页
在以图像分类为目标任务的迁移学习场景下,针对攻击者能力和需求对应模型不一致的情况下攻击准确率较低的问题,提出面向特征向量差异性的成员推理攻击方案,构建阴影模型获取不同层次的特征向量,采用欧氏距离对不同特征向量之间的距离进... 在以图像分类为目标任务的迁移学习场景下,针对攻击者能力和需求对应模型不一致的情况下攻击准确率较低的问题,提出面向特征向量差异性的成员推理攻击方案,构建阴影模型获取不同层次的特征向量,采用欧氏距离对不同特征向量之间的距离进行计算,提出阈值比较步骤对欧氏距离细化分类,并设计阈值选择策略。实验结果表明:在不访问教师模型的情况下,对教师模型实施成员推理攻击,所提攻击方案仍能实现较好的攻击性能。本文方案在Cats vs Dogs、Flowers102和CIFAR-100数据集上成员推理攻击准确率分别达到0.728、0.632和0.581,揭示了迁移学习场景下成员推理攻击的有效性。随着学生模型训练时冻结层数的增加,本文方案在Cats vs Dogs数据集上的攻击性能得到提升。 展开更多
关键词 机器学习 成员推理攻击 迁移学习
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部