首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于视觉的室内定位算法研究

摘要第5-6页
abstract第6页
第1章 绪论第10-16页
    1.1 研究背景及意义第10-11页
    1.2 国内外研究现状第11-13页
        1.2.1 场景识别与分类技术国内外研究现状第11-12页
        1.2.2 视觉定位国内外研究现状第12-13页
    1.3 视觉室内定位面临的挑战第13-14页
    1.4 主要内容和组织结构第14-16页
        1.4.1 主要内容第14页
        1.4.2 组织结构第14-16页
第2章 相机标定与图像预处理第16-32页
    2.1 相机的成像模型第16-21页
        2.1.1 像素坐标系、图像坐标系、相机坐标系和世界坐标系第16-18页
        2.1.2 旋转矩阵与旋转角第18-19页
        2.1.3 相机的针孔成像模型第19-20页
        2.1.4 相机的畸变参数第20-21页
    2.2 相机标定方法第21-28页
        2.2.1 相机标定简介第21页
        2.2.2 直接线性变换标定法第21-22页
        2.2.3 基于棋盘格的半自动标定法第22-26页
        2.2.4 标定实验过程与结果第26-28页
    2.3 图像预处理第28-31页
        2.3.1 图像灰度化第28-29页
        2.3.2 图像滤波去噪第29页
        2.3.3 图像对比度增强第29-31页
    2.4 本章小结第31-32页
第3章 基于卷积神经网络的室内场景分类第32-52页
    3.1 场景图像识别分类问题概述第32-33页
    3.2 基于词袋模型的室内场景分类第33-39页
        3.2.1 SIFT特征点提取第34-36页
        3.2.2 K-means聚类第36-37页
        3.2.3 支持向量机第37-38页
        3.2.4 算法流程第38-39页
    3.3 基于深度置信网络的室内场景分类第39-44页
        3.3.1 LBP特征第40-41页
        3.3.2 深度信念网络模型第41-43页
        3.3.3 DBN网络训练第43-44页
    3.4 基于卷积神经网络的室内场景分类第44-47页
        3.4.1 卷积神经网络简介第44-46页
        3.4.2 卷积神经网络训练第46页
        3.4.3 卷积神经网络结构第46-47页
    3.5 实验结果及结论第47-50页
        3.5.1 实验数据集第48-49页
        3.5.2 分类算法评价标准第49页
        3.5.3 实验结果及分析第49-50页
    3.6 本章小结第50-52页
第4章 基于PnP问题的相机位姿估计方法第52-68页
    4.1 PnP问题概述第52-53页
    4.2 RPnP算法第53-56页
        4.2.1 几何约束第53-54页
        4.2.2 RPnP算法原理第54-56页
    4.3 高精度快速位姿估计算法第56-58页
    4.4 改进PnP问题求解算法第58-60页
    4.5 实验及结果分析第60-66页
        4.5.1 定位算法评价指标第61页
        4.5.2 模拟数据仿真实验第61-63页
        4.5.3 真实场景1实验第63-64页
        4.5.4 真实场景2实验第64-66页
    4.6 本章小结第66-68页
结论第68-70页
参考文献第70-76页
攻读硕士学位期间发表的论文和取得的科研成果第76-78页
致谢第78页

论文共78页,点击 下载论文
上一篇:基于单目视觉的目标识别与定位
下一篇:基于Spring的高校教学管理信息系统的设计与实现