首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于立体视觉的自然场景三维模型计算

摘要第5-6页
Abstract第6页
第一章 绪论第9-13页
    1.1 双目立体匹配研究背景和应用第9-10页
    1.2 国内外研究概况第10-11页
    1.3 论文主要工作及内容安排第11-13页
第二章 双目立体视觉系统相关原理第13-23页
    2.1 相机系统成像原理第13-18页
        2.1.1 相机模型第13-14页
        2.1.2 坐标系统及其转换关系第14-16页
        2.1.3 标定第16-18页
        2.1.4 实验结果第18页
    2.2 双目立体匹配系统原理第18-20页
        2.2.1 基本概念和模型第18-19页
        2.2.2 视差与深度的关系第19-20页
    2.3 双目立体匹配算法基本框架第20-21页
    2.4 本章小结第21-23页
第三章 立体匹配基本理论以及算法研究第23-31页
    3.1 立体匹配基本理论第23-26页
        3.1.1 匹配基元的选取第23-24页
        3.1.2 相似性测度函数第24页
        3.1.3 立体匹配约束第24-25页
        3.1.4 立体匹配评价标准第25-26页
    3.2 立体匹配算法分类与比较第26-29页
        3.2.1 局部匹配算法第26-27页
        3.2.2 半全局匹配算法第27-28页
        3.2.3 全局匹配算法第28-29页
    3.3 立体匹配面临的挑战第29页
    3.4 本章小结第29-31页
第四章 基于图像增强的局部立体匹配方法第31-45页
    4.1 双边滤波器第31-34页
        4.1.1 双边滤波器原理第31-32页
        4.1.2 基于双边滤波器的立体匹配方法第32-34页
    4.2 引导滤波器第34-37页
        4.2.1 引导滤波原理第34-36页
        4.2.2 基于引导滤波立体匹配方法第36-37页
    4.3 基于引导滤波的快速立体匹配方法第37-44页
        4.3.1 匹配代价构建第37-38页
        4.3.2 匹配代价聚合和视差选取第38页
        4.3.3 视差细化第38-41页
        4.3.4 实验结果第41-43页
        4.3.5 算法复杂度分析和运行时间评估第43-44页
    4.4 本章小结第44-45页
第五章 基于双目图像的多视点扩展方法第45-53页
    5.1 基于相位增强的视点扩展方法第45-48页
        5.1.1 基于相位的运动增强第45-46页
        5.1.2 基于相位增强的视点扩展第46-47页
        5.1.3 实验结果第47-48页
    5.2 基于傅立叶切片的视点扩展方法第48-51页
        5.2.1 三维重建以及边缘修复第48-49页
        5.2.2 傅立叶切片第49-50页
        5.2.3 实验结果第50-51页
    5.3 本章小结第51-53页
第六章 总结与展望第53-55页
    6.1 总结第53-54页
    6.2 展望第54-55页
致谢第55-57页
参考文献第57-61页
作者简介第61页

论文共61页,点击 下载论文
上一篇:面向产学研的推荐算法与推荐系统研究
下一篇:基于资源共享的负载均衡任务调度算法研究