申请/专利权人:南京航空航天大学
申请日:2024-01-12
公开(公告)日:2024-04-16
公开(公告)号:CN117893851A
主分类号:G06V10/774
分类号:G06V10/774;G06V10/764;G06V10/82;G06N3/045;G06N3/0475;G06N3/086;G06N3/094
优先权:
专利状态码:在审-公开
法律状态:2024.04.16#公开
摘要:本发明公开一种基于进化策略生成细微扰动的黑盒决策攻击方法,适用于机器学习模型中数字图像的对抗攻击问题,该方法包括步骤如下:1建立目标函数,表述黑盒决策攻击问题;2从原始图像出发,通过进化策略算法在宽松约束的条件下快速跨越决策边界找到使DNN模型分类错误的对抗样本;3通过扰动压缩方法减小采样空间,提高后续算法的效率;4使用原始图像引导算法的搜索方向;5记录搜索过程中失败的采样与采样数;6根据失败的采样调整进化策略的分布均值;7满足迭代停止条件,生成具有细微扰动的对抗样本。本发明能在查询次数受限的决策攻击场景下高效寻找高质量的对抗样本,有效地解决了黑盒决策攻击中查询效率低且样本失真严重等问题。
主权项:1.一种基于进化策略生成细微扰动的黑盒决策攻击方法,其特征在于,包括以下步骤:1建立目标函数,将黑盒决策攻击问题重新表述;2从原始图像出发,使用进化策略在宽松约束的条件下快速跨越决策边界找到使DNN模型分类错误的对抗样本;3通过扰动压缩方法减小采样空间,提高后续算法的搜索效率;4使用原始图像引导算法的搜索方向;5记录搜索过程中失败的采样与失败的采样数;6根据失败的采样调整进化策略的分布均值;7满足迭代停止条件,生成具有细微扰动的对抗样本。
全文数据:
权利要求:
百度查询: 南京航空航天大学 一种基于进化策略生成细微扰动的黑盒决策攻击方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。