首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于RGB-D传感器室内场景三维重建关键技术研究

摘要第5-6页
abstract第6-7页
第一章 绪论第10-20页
    1.1 本文研究背景第10-13页
    1.2 国内外研究现状及发展趋势第13-16页
    1.3 本文研究意义第16页
    1.4 本文主要研究内容及章节安排第16-18页
    1.5 本章小结第18-20页
第二章 RGB-D传感器的深度图像的校正方法第20-34页
    2.1 引言第20-22页
    2.2 深度图像校正方法第22-26页
        2.2.1 ANN的特性第23页
        2.2.2 条状平面模板的制备和数据采集第23-25页
        2.2.3 ANN模型训练第25-26页
        2.2.4 通过ANN校正模型校正深度图像第26页
    2.3 实验和结果分析第26-33页
        2.3.1 相同距离但不同反射率:反射率相关深度误差第28页
        2.3.2 相同反射率但不同距离:距离相关深度误差第28-30页
        2.3.3 训练神经网络模型和校正深度图像第30-32页
        2.3.4 在室内场景三维重建中的应用第32-33页
    2.4 本章小结第33-34页
第三章 基于ORB-SLAM2构建实时稠密三维重建模块第34-56页
    3.1 引言第34页
    3.2 ORB-SLAM2系统中的关键技术第34-42页
        3.2.1 基于图像金字塔模型的ORB特征提取第36-38页
        3.2.2 关键帧的筛选第38-39页
        3.2.3 非线性优化第39-41页
        3.2.4 闭环检测和重定位中的位置识别第41-42页
    3.3 构建稠密三维重建模块第42-45页
    3.4 实验验证分析第45-53页
        3.4.1 TUM数据集实验验证第45-46页
        3.4.2 实验室场景实验验证第46-50页
        3.4.3 实验室场景实验结果分析第50-53页
    3.5 本章小结第53-56页
第四章 基于ORB-SLAM2的RGB-D图像和IMU信息融合第56-72页
    4.1 引言第56-59页
    4.2 RGB-D图像信息和IMU信息融合第59-66页
        4.2.1 IMU预积分第59-62页
        4.2.2 视觉惯性联合初始化第62-63页
        4.2.3 视觉惯性紧耦合优化第63-65页
        4.2.4 基于ORB-SLAM2视觉惯性融合的稠密三维重建模块构建第65-66页
    4.3 实验验证与结果分析第66-69页
        4.3.1 RGB-D传感器的标定第66-68页
        4.3.2 实验室场景实验第68-69页
    4.4 本章小结第69-72页
第五章 总结与展望第72-74页
    5.1 工作总结第72页
    5.2 未来展望第72-74页
参考文献第74-80页
致谢第80-82页
作者攻读学位期间发表的学术论文及专利目录第82页

论文共82页,点击 下载论文
上一篇:基于回归神经网络的动态流量预测模型及应用
下一篇:基于深度神经网络的人脸识别方法研究