首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于深度特征的图像重定位

摘要第4-5页
Abstract第5页
第一章 绪论第11-19页
    1.1 研究背景第11-13页
    1.2 研究现状第13-15页
        1.2.1 基于度量的图像重定位第13-14页
        1.2.2 基于表观的图像重定位第14-15页
    1.3 本文的工作和创新之处第15-16页
    1.4 本文内容安排第16-19页
第二章 相关基础工作综述第19-43页
    2.1 图像2D特征提取与匹配第19-22页
        2.1.1 2D特征提取第19-20页
        2.1.2 特征匹配第20-22页
    2.2 基于特征配准的姿态估计算法第22-26页
        2.2.1 直接线性变换第22-25页
        2.2.2 由运动到结构第25-26页
    2.3 卷积神经网络基本结构第26-33页
        2.3.1 M-P神经元模型第26-27页
        2.3.2 激活函数第27-30页
        2.3.3 全连接层第30-31页
        2.3.4 卷积层第31-32页
        2.3.5 采样层第32-33页
    2.4 深度网络训练方法第33-40页
        2.4.1 BP算法第33-35页
        2.4.2 Softmax和中心损失第35-37页
        2.4.3 SGD和Adagrad优化方法第37-38页
        2.4.4 多任务学习第38-39页
        2.4.5 深度学习软件框架第39-40页
    2.5 本章小结第40-43页
第三章 基于深度特征的图像姿态回归模型第43-61页
    3.1 端到端的姿态回归学习第43-46页
        3.1.1 问题定义第43-44页
        3.1.2 图像拍摄位置与朝向回归第44-46页
    3.2 网络结构第46-51页
        3.2.1 网络结构第46-47页
        3.2.2 预训练第47-51页
    3.3 实验第51-58页
        3.3.1 数据集第51-53页
        3.3.2 实验配置和Baseline第53-54页
        3.3.3 实验结果第54-58页
    3.4 实验结果分析第58-60页
    3.5 本章小结第60-61页
第四章 联合学习图片姿态估计和场景识别第61-71页
    4.1 共享深度姿态特征的姿态估计任务和场景识别任务第61-64页
        4.1.1 模型不确定性分析第61-62页
        4.1.2 图片姿态特征理解第62-64页
    4.2 网络结构第64-66页
        4.2.1 网络结构第64-65页
        4.2.2 损失函数和训练策略第65-66页
    4.3 实验第66-69页
        4.3.1 数据集第66-67页
        4.3.2 实验配置和Baseline第67页
        4.3.3 实验结果第67-69页
    4.4 实验结果分析第69-70页
    4.5 本章小结第70-71页
第五章 城市级图像定位框架第71-77页
    5.1 城市级建筑图像定位系统第71-72页
    5.2 基于混合高斯模型的区域划分学习第72-77页
        5.2.1 定义图像数据集通道第73页
        5.2.2 自适应的区域划分学习第73-77页
第六章 总结与未来工作第77-79页
参考文献第79-82页
致谢第82页

论文共82页,点击 下载论文
上一篇:攀钢冷轧联轧生产计划及带钢跟踪系统设计
下一篇:单片光电集成位置传感芯片的研制