首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于卷积神经网络的计算机视觉关键技术研究

摘要第5-7页
abstract第7-8页
第一章 绪论第13-22页
    1.1 研究工作的背景与意义第13-14页
    1.2 研究历史与现状第14-19页
        1.2.1 卷积神经网络的发展历史第14-15页
        1.2.2 卷积神经网络的研究现状第15-19页
            1.2.2.1 过拟合问题第15-16页
            1.2.2.2 结构研究第16-17页
            1.2.2.3 迁移学习第17-18页
            1.2.2.4 应用研究第18-19页
    1.3 本文的主要贡献与创新第19-20页
    1.4 本论文的结构安排第20-22页
第二章 卷积神经网络与计算机视觉第22-28页
    2.1 卷积神经网络第22-24页
        2.1.1 卷积神经网络的基本结构第22-23页
        2.1.2 卷积神经网络的工作原理第23-24页
    2.2 计算机视觉第24-27页
        2.2.1 计算机视觉的研究层次第24-25页
        2.2.2 计算机视觉关键技术第25-27页
            2.2.2.1 物体识别第25-26页
            2.2.2.2 场景标注第26页
            2.2.2.3 场景识别第26-27页
    2.3 本章小结第27-28页
第三章 基于异构多列卷积神经网络的物体识别第28-47页
    3.1 引言第28-29页
    3.2 基于卷积神经网络的物体识别研究概述第29-31页
        3.2.1 物体识别第29页
        3.2.2 多列卷积神经网络第29-31页
    3.3 基于异构多列卷积神经网络的滑动窗口融合第31-35页
        3.3.1 异构多列卷积神经网络第31-32页
        3.3.2 滑动窗口融合第32-35页
            3.3.2.1 滑动窗口融合过程第32-34页
            3.3.2.2 参数穷尽方式与训练方式第34-35页
    3.4 实验分析第35-45页
        3.4.1 MNIST数据集第35-41页
            3.4.1.1 卷积核大小分析第37-38页
            3.4.1.2 特征图数量分析第38-39页
            3.4.1.3 卷积核与特征图分析第39-40页
            3.4.1.4 滑动窗口融合与传统融合方法对比第40-41页
        3.4.2 CIFAR-10 数据集第41-43页
        3.4.3 Caltech-256 数据集第43-44页
        3.4.4 实验结论第44-45页
    3.5 讨论第45页
    3.6 本章小结第45-47页
第四章 基于特征学习和区域一致性激励的场景标注第47-80页
    4.1 引言第47-48页
    4.2 场景标注研究概述第48-50页
        4.2.1 场景标注的研究难点第48-49页
        4.2.2 特征表达第49-50页
        4.2.3 区域一致性第50页
    4.3 场景标注相关研究工作第50-52页
        4.3.1 场景图像的特征学习第50-51页
        4.3.2 图模型第51-52页
        4.3.3 经验方法第52页
    4.4 基于特征学习与区域一致性激励的场景标注方法第52-61页
        4.4.1 基于超像素的多尺度特征学习第53-56页
            4.4.1.1 超像素的多尺度表达第53-54页
            4.4.1.2 训练卷积神经网络特征第54-55页
            4.4.1.3 通用卷积神经网络特征第55-56页
        4.4.2 区域一致性研究第56-61页
            4.4.2.1 图模型第57-58页
            4.4.2.2 区域一致性量化定义第58-59页
            4.4.2.3 区域一致性激励第59-61页
    4.5 实验分析第61-71页
        4.5.1 Stanford Background数据集第62-67页
            4.5.1.1 特征学习实验配置第62-63页
            4.5.1.2 区域一致性实验配置第63-64页
            4.5.1.3 场景标注准确度分析第64-65页
            4.5.1.4 混淆矩阵分析第65-66页
            4.5.1.5 场景标注样本分析第66-67页
        4.5.2 SIFT Flow数据集第67-69页
        4.5.3 NYU-Depth V2数据集第69-71页
            4.5.3.1 实验配置第69-70页
            4.5.3.2 实验结果第70-71页
        4.5.4 实验结论第71页
    4.6 讨论第71-78页
        4.6.1 特征表达与场景标注第71-74页
            4.6.1.1 实验数据分析第72-73页
            4.6.1.2 实验结果改进第73-74页
        4.6.2 场景标注的区域一致性第74-75页
        4.6.3 自适应的区域一致性激励算法第75-77页
            4.6.3.1 RCA算法改进思路第75-76页
            4.6.3.2 自适应的RCA算法第76页
            4.6.3.3 实验分析第76-77页
        4.6.4 区域一致性算法比较第77-78页
            4.6.4.1 准确度比较第77页
            4.6.4.2 区域一致性比较第77-78页
    4.7 本章小结第78-80页
第五章 基于多尺度显著区域特征学习的场景识别第80-100页
    5.1 引言第80-81页
    5.2 场景识别研究概述第81-82页
        5.2.1 区域选择第81页
        5.2.2 特征提取第81-82页
    5.3 显著区域提取第82-85页
        5.3.1 场景中的区域划分第82-83页
        5.3.2 场景中的显著区域提取第83-85页
    5.4 特征学习第85-88页
        5.4.1 卷积神经网络的特征学习第85-87页
        5.4.2 卷积神经网络的迁移学习第87-88页
    5.5 基于多尺度显著区域特征学习的场景识别方法第88-90页
        5.5.1 多尺度显著区域提取第88-89页
        5.5.2 显著区域的特征学习第89-90页
    5.6 实验分析第90-97页
        5.6.1 实验配置第90-91页
        5.6.2 MIT-67 室内场景数据集测试第91-94页
            5.6.2.1 实验结果第91-92页
            5.6.2.2 场景识别准确度分析第92-94页
            5.6.2.3 多尺度改善效果分析第94页
        5.6.3 SUN397大型场景识别数据库基准测试第94-97页
            5.6.3.1 实验结果第94-95页
            5.6.3.2 场景识别准确度分析第95-97页
            5.6.3.3 多尺度改善效果分析第97页
        5.6.4 实验结论第97页
    5.7 讨论第97-98页
    5.8 本章小结第98-100页
第六章 全文总结与展望第100-102页
    6.1 全文总结第100-101页
    6.2 后续工作展望第101-102页
致谢第102-103页
参考文献第103-112页
攻读博士学位期间取得的成果第112-113页

论文共113页,点击 下载论文
上一篇:基于双目视觉的可行道路检测方法研究与实现
下一篇:室内监控场景的对象检测与行为分析方法研究