首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于运动分解的场景流估计方法研究

摘要第5-6页
abstract第6-7页
第1章 绪论第11-15页
    1.1 论文背景及意义第11-12页
    1.2 场景流估计的研究现状第12-13页
    1.3 论文的主要研究内容第13页
    1.4 论文的内容安排第13-15页
第2章 场景流估计的基础理论第15-23页
    2.1 场景流估计中的数据源第15-17页
        2.1.1 被动传感器第15-16页
        2.1.2 主动传感器第16-17页
    2.2 场景流估计的投影关系第17-20页
        2.2.1 图像坐标系与相机坐标系的映射关系第18页
        2.2.2 相机坐标系与世界坐标系的映射关系第18-19页
        2.2.3 真实运动和表观运动的联系与区别第19-20页
    2.3 场景流估计面临的主要挑战第20-22页
        2.3.1 子问题求解误差传递第20页
        2.3.2 求解空间的复杂度第20-21页
        2.3.3 其它问题第21-22页
    2.4 本章小结第22-23页
第3章 从像素到物体—场景流估计的几种基本框架第23-35页
    3.1 像素级的场景流求解第23-28页
        3.1.1 数据项第23-26页
        3.1.2 正则化项第26-27页
        3.1.3 求解方法第27-28页
    3.2 团块级的场景流求解第28页
    3.3 平面级的场景流求解第28-32页
        3.3.1 基于双目立体视觉的平面级场景流求解第29-31页
        3.3.2 基于深度传感器的平面级场景流求解第31-32页
    3.4 物体级的场景流求解第32-33页
    3.5 本章小结第33-35页
第4章 基于运动分解的场景流估计框架第35-47页
    4.1 初始化第35-37页
        4.1.1 光流估计初始化第36页
        4.1.2 视差估计初始化第36-37页
        4.1.3 语义分割初始化第37页
    4.2 误差区域提取策略第37-38页
    4.3 基于RANSAC的相机运动估计第38-42页
        4.3.1 相机运动估计第39-41页
        4.3.2 基于RANSAC最优估计值提取第41-42页
    4.4 基于插值优化的视差估计和场景运动估计第42-45页
        4.4.1 运动物体区域的场景流插值优化第42-45页
        4.4.2 视差/深度图的插值优化第45页
    4.5 本章小结第45-47页
第5章 基于运动分解的场景流估计实验分析第47-63页
    5.1 场景流估计的误差评估准则和公用数据集第47-51页
        5.1.1 误差评估准则第47-48页
        5.1.2 常用的公用数据集第48-50页
        5.1.3 现有数据集和误差估计方法存在的不足第50-51页
    5.2 场景流估计方案的可行性验证第51-54页
        5.2.1 基于边缘信息的光流插值方案验证第51-53页
        5.2.2 基于RANSAC的刚体运动估计方案验证第53-54页
    5.3 参数调节和方案选择第54-58页
        5.3.1 实验环境第54页
        5.3.2 非运动区域参数调节第54-56页
        5.3.3 非运动区域最小二乘方案选择第56-57页
        5.3.4 运动区域的均匀采样参数调节第57页
        5.3.5 运动区域的插值方案选择第57-58页
    5.4 场景流估计方案的计算性能分析第58页
    5.5 方案的定量误差分析第58-59页
    5.6 方案的定性分析第59-60页
        5.6.1 流场估计结果第59-60页
        5.6.2 深度图修复结果第60页
    5.7 本章小结第60-63页
结论第63-65页
参考文献第65-75页
攻读硕士学位期间发表的论文和取得的科研成果第75-77页
致谢第77页

论文共77页,点击 下载论文
上一篇:基于压缩感知的图像压缩重构FPGA实现
下一篇:基于三维图像的髓内针整复导航系统