首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--计算机仿真论文

基于KinectFusion的主动式室内场景重建与分析

摘要第8-9页
ABSTRACT第9页
符号使用说明第10-11页
第一章 绪论第11-24页
    1.1 室内场景扫描与分析概述第12-19页
        1.1.1 室内场景的数据获取第13-17页
        1.1.2 室内场景的分析第17-19页
    1.2 机器人环境感知和探索概述第19-21页
        1.2.1 机器人环境感知技术应用现状第19-20页
        1.2.2 机器人环境探索第20页
        1.2.3 面向室内环境的三维感知第20-21页
        1.2.4 基于主动交互的场景分析第21页
    1.3 本文的研究工作第21-22页
    1.4 本文的组织结构第22-24页
第二章 室内场景物体分析第24-34页
    2.1 系统运行基本流程第24-25页
    2.2 基于patch的平面检测算法第25-27页
        2.2.1 室内场景模型的预处理第25页
        2.2.2 平面patch的标记与去除第25-27页
    2.3 室内场景的扫描与分析算法第27-34页
        2.3.1 物体假设的生成第29-30页
        2.3.2 物体假设的选择第30-32页
        2.3.3 在线切割代价学习第32-34页
第三章 基于熵的主动式分割结果验证第34-44页
    3.1 寻找获得最大信息增量的NBP第35-39页
        3.1.1 分割与重建的联合熵定义第36-37页
        3.1.2 最大信息增量第37-38页
        3.1.3 后验熵的计算第38-39页
    3.2 NBP的物理可行性第39-42页
        3.2.1 机器人推动物体的规则第39-41页
        3.2.2 物体位移检测与追踪第41-42页
    3.3 精化扫描与验证结果集成第42-44页
        3.3.1 针对物体的精化扫描第42页
        3.3.2 场景分割验证结果的集成第42-43页
        3.3.3 迭代算法结束条件第43-44页
第四章 主动式重建与分析系统第44-51页
    4.1 系统软件构成第44-46页
        4.1.1 系统运行的基本数据存储构成第44-45页
        4.1.2 体素数据存储结构第45-46页
        4.1.3 辅助场景分析算法运行所需视图第46页
    4.2 系统硬件构成第46-51页
        4.2.1 PR2机器人第46-48页
        4.2.2 Microsoft Kinect深度摄像机第48-50页
        4.2.3 运行KinectFusion和场景分析算法的计算机端第50-51页
第五章 实验设计与结果评估第51-61页
    5.1 真实室内场景重建与分析结果第51-53页
    5.2 量化评估与对比第53-60页
        5.2.1 根据真实测试场景构建ground truth第53-54页
        5.2.2 带物体分割场景重建质量的量化评估方法第54-55页
        5.2.3 带物体分割的场景重建算法的性能评估第55-56页
        5.2.4 不使用学习算法情况下场景分割算法的性能评估第56-57页
        5.2.5 使用学习算法情况下场景分割算法的性能评估第57-58页
        5.2.6 主动式验证的效果评估第58-59页
        5.2.7 NBP选择算法的评估与对比第59-60页
    5.3 算法的失效情况与局限性第60-61页
        5.3.1 算法的失效情况第60页
        5.3.2 算法的局限性第60-61页
第六章 结语第61-63页
    6.1 全文工作总结第61-62页
    6.2 工作展望第62-63页
致谢第63-64页
参考文献第64-68页
作者在学期间取得的学术成果第68页

论文共68页,点击 下载论文
上一篇:基于PETSc的OpenFOAM并行求解性能优化
下一篇:具有深度信息的视频图像中的人物步态识别技术研究