首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于视觉注意深度模型的图像场景分类方法研究

摘要第9-10页
ABSTRACT第10-11页
第一章 绪论第12-23页
    1.1 课题研究背景及研究意义第12-14页
    1.2 国内外研究现状第14-20页
        1.2.1 传统基于人工设计特征的场景分类第15-16页
        1.2.2 基于深度学习的场景分类第16-18页
        1.2.3 视觉注意机制第18-19页
        1.2.4 场景分类面临的挑战第19-20页
    1.3 论文的主要工作及创新点第20-23页
        1.3.1 主要工作第20-21页
        1.3.2 创新点第21页
        1.3.3 论文的组织结构第21-23页
第二章 背景与相关研究工作第23-40页
    2.1 神经网络理论及浅层学习的局限性第23-25页
    2.2 深度学习理论及优势第25-27页
    2.3 卷积神经网络第27-34页
        2.3.1 网络结构第27-33页
        2.3.2 前向传播和反向传播算法第33-34页
        2.3.3 常用的优化方法和技巧第34页
        2.3.4 卷积神经网络的优势第34页
    2.4 视觉注意机制第34-37页
        2.4.1 视觉注意模型第35页
        2.4.2 空间变换模型第35-37页
        2.4.3 视觉注意机制的优势和应用第37页
    2.5 场景分类数据集第37-39页
        2.5.1 传统的数据集第37-38页
        2.5.2 大规模深度学习数据集第38-39页
    2.6 本章小结第39-40页
第三章 基于局部视觉注意深度模型的场景分类方法第40-57页
    3.1 引言第40页
    3.2 基于局部视觉注意深度模型的场景分类网络第40-47页
        3.2.1 构建局部视觉注意模块第41-42页
        3.2.2 构建定位子网络第42-45页
        3.2.3 构建特征取与分类子网络第45-46页
        3.2.4 特征融合第46-47页
    3.3 实验设置第47-51页
        3.3.1 实验数据集第47-48页
        3.3.2 图像预处理第48-50页
        3.3.3 实验方法第50-51页
        3.3.4 模型训练第51页
    3.4 实验结果与分析第51-56页
    3.5 本章小结第56-57页
第四章 全局深度模型与局部视觉注意深度模型融合的场景分类方法第57-64页
    4.1 引言第57页
    4.2 全局深度模型与局部视觉注意深度模型融合的场景分类网络第57-59页
        4.2.1 构建全局特征取子网络第57-59页
        4.2.2 全局特征与局部特征融合第59页
    4.3 实验设置与模型训练第59-60页
        4.3.1 实验数据与参数初始化第59-60页
        4.3.2 实验方法与模型训练第60页
    4.4 实验结果与分析第60-63页
    4.5 本章小结第63-64页
第五章 总结与展望第64-66页
    5.1 本文总结第64-65页
    5.2 工作展望第65-66页
致谢第66-67页
参考文献第67-73页
作者在学期间取得的学术成果第73页

论文共73页,点击 下载论文
上一篇:太赫兹近场阵列成像技术研究
下一篇:基于双目视觉的六自由度波浪补偿检测技术研究