首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

图像对抗样本生成中的黑盒攻击方法研究

摘要第4-5页
abstract第5页
第一章 绪论第8-14页
    1.1 研究背景和意义第8-10页
    1.2 国内外发展及现状第10-12页
    1.3 论文主要内容及结构第12-14页
第二章 相关理论及技术第14-26页
    2.1 神经网络第14-21页
        2.1.1 前馈神经网络第14-17页
        2.1.2 卷积神经网络第17-20页
        2.1.3 图像识别过程第20-21页
    2.2 对抗样本第21-25页
        2.2.1 对抗样本攻击技术第22-24页
        2.2.2 对抗样本存在的原因第24-25页
    2.3 本章小结第25-26页
第三章 基于Nesterov动量的对抗样本生成方法第26-42页
    3.1 引言第26页
    3.2 问题描述第26-27页
    3.3 Deepfool算法简介第27-31页
        3.3.1 Deepfool算法第27-30页
        3.3.2 Deepfool算法的缺陷第30-31页
    3.4 NM-Deepfool算法第31-36页
        3.4.1 Nesterov动量优化算法第31-35页
        3.4.2 算法流程第35-36页
    3.5 实验结果及分析第36-41页
        3.5.1 实验设置第36-37页
        3.5.2 攻击能力评估第37-39页
        3.5.3 衰减因子第39-40页
        3.5.4 对抗样本视觉效果第40-41页
    3.6 本章小结第41-42页
第四章 基于颜色通道信息扰动的语义对抗样本生成方法第42-58页
    4.1 引言第42页
    4.2 问题描述第42-43页
    4.3 形状偏好特性第43-45页
        4.3.1 人类视觉的形状偏好第43-44页
        4.3.2 神经网络的形状偏好第44-45页
    4.4 基于颜色通道信息扰动的语义对抗样本生成第45-52页
        4.4.1 视觉基础与颜色模型第46-49页
        4.4.2 基于CMY颜色模型变换的语义对抗样本第49-50页
        4.4.3 基于HSI颜色模型变换的语义对抗样本第50-52页
    4.5 实验结果及分析第52-57页
        4.5.1 实验设置第52页
        4.5.2 攻击能力评估第52-54页
        4.5.3 迭代攻击次数N第54-55页
        4.5.4 扰动因子δ_H和δ_S第55-56页
        4.5.5 对抗样本视觉效果第56-57页
    4.6 本章小结第57-58页
第五章 总结与展望第58-60页
    5.1 总结第58-59页
    5.2 展望第59-60页
参考文献第60-63页
附录1 攻读硕士学位期间撰写的论文第63-64页
致谢第64页

论文共64页,点击 下载论文
上一篇:样本分布变化的多示例学习方法研究
下一篇:基于程序数据值的恶意软件变种识别研究与实现