首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于深度的虚拟视点绘制及其失真研究

摘要第4-5页
ABSTRACT第5页
第一章 绪论第8-26页
    1.1 立体显示技术简介第8-14页
        1.1.1 立体成像基本原理第9-10页
        1.1.2 立体显示技术第10-14页
    1.2 3D视频技术第14-23页
        1.2.1 研究背景和研究意义第14-15页
        1.2.2 3D视频技术研究现状第15-18页
        1.2.3 MVD格式编码现状第18-19页
        1.2.4 虚拟视点绘制的研究现状第19-22页
        1.2.5 视图合成失真第22-23页
    1.3 本文的主要工作和内容第23-26页
第二章 3D立体视频技术基础第26-47页
    2.1 3D视频技术简介第26-32页
        2.1.1 多视点图像/视频采集第29-30页
        2.1.2 3D场景表示第30-32页
    2.2 深度图的获取第32-36页
        2.2.1 基于深度相机的深度获取第32-33页
        2.2.2 基于立体图像对的深度获取算法第33-36页
    2.3 基于深度图像的绘制技术(DIBR)第36-44页
        2.3.1 虚拟视点相机参数估计第36-37页
        2.3.2 3D image Warping第37-40页
        2.3.3 图像融合第40-41页
        2.3.4 空洞填补第41-44页
    2.4 视图合成失真分析第44-46页
    2.5 本章小结第46-47页
第三章 FTV系统的虚拟视点绘制方法研究第47-73页
    3.1 基于直方图匹配的纹理图像颜色补偿第48-51页
        3.1.1 直方图匹配第48-50页
        3.1.2 基于直方图匹配的颜色补偿第50-51页
    3.2 基于JNDD的深度图预处理第51-55页
        3.2.1 双目立体视觉和 3D视觉第52-53页
        3.2.2 适用于显示的JNDD第53-54页
        3.2.3 基于JNDD的孤立深度点移除第54-55页
    3.3 基于子像素的 3D Warping第55-57页
    3.4 基于背景的空洞填补第57-60页
    3.5 实验结果及分析第60-72页
    3.6 本章小结第72-73页
第四章 最大可容忍深度失真分析及其应用第73-90页
    4.1 视图合成几何失真模型第73-76页
        4.1.1 虚拟视图绘制几何失真的形成原因第73-74页
        4.1.2 几何失真模型第74-76页
    4.2 最大可容忍深度失真模型第76-79页
    4.3 实验结果与分析第79-87页
    4.4 MTDD应用第87-88页
        4.4.1 基于MTDD的深度图平滑第87-88页
        4.4.2 基于MTDD的深度图平滑第88页
    4.5 本章小结第88-90页
第五章 基于JNDD边界划分的立体视频深度编码第90-104页
    5.1 视图合成失真及深度编码失真第90-91页
    5.2 基于JNDD边界划分的深度编码第91-96页
        5.2.1 基于JNDD的深度边界提取第91-94页
        5.2.2 基于边界划分的比特分配第94-96页
    5.3 实验结果及分析第96-103页
    5.4 本章小结第103-104页
第六章 总结与展望第104-106页
参考文献第106-115页
发表论文和参加科研情况说明第115-116页
致谢第116-117页

论文共117页,点击 下载论文
上一篇:面向3DTV的深度计算重建
下一篇:断层场地对地震波的放大作用