首页--工业技术论文--无线电电子学、电信技术论文--通信论文--数据通信论文--图像通信、多媒体通信论文--图像编码论文

多视点信息融合与合成技术研究

摘要第3-5页
ABSTRACT第5-7页
目录第8-11页
插图索引第11-13页
表格索引第13-14页
第一章 绪论第14-24页
    1.1 引言第14-15页
    1.2 立体视频技术的相关研究第15-20页
        1.2.1 三维场景信息的采集与处理第16-17页
        1.2.2 三维场景的表示第17页
        1.2.3 立体视频的编码与传输第17-18页
        1.2.4 三维场景绘制第18-19页
        1.2.5 立体显示技术第19-20页
    1.3 本文主要贡献和章节安排第20-24页
第二章 立体视频技术中的基本理论知识第24-32页
    2.1 引言第24页
    2.2 图像成像模型第24-28页
        2.2.1 图像坐标系与像素坐标系第24-25页
        2.2.2 照相机坐标系与图像坐标系第25页
        2.2.3 世界坐标系与照相机坐标系第25-27页
        2.2.4 空间坐标转换关系第27-28页
    2.3 人眼视觉系统及成像原理第28-30页
        2.3.1 人眼视觉系统的立体感知第28-29页
        2.3.2 立体视频的采集与获取第29-30页
    2.4 本章小结第30-32页
第三章 分布式多视点视频的边信息融合第32-58页
    3.1 引言第32-33页
    3.2 分布式多视点视频编码第33-37页
        3.2.1 分布式视频编码框架第33-35页
        3.2.2 分布式多视点视频编码框架第35-36页
        3.2.3 分布式多视点视频的边信息生成第36-37页
    3.3 基于条件随机场模型的边信息融合第37-50页
        3.3.1 条件随机场模型第38-40页
        3.3.2 状态势函数第40-45页
        3.3.3 转移势函数第45-48页
        3.3.4 模型参数的训练与推断第48-50页
    3.4 实验结果与分析第50-57页
        3.4.1 融合边信息的质量评价第52-53页
        3.4.2 码率性能分析第53-56页
        3.4.3 时间复杂度分析第56-57页
    3.5 本章小结第57-58页
第四章 虚拟视点的合成技术研究第58-78页
    4.1 引言第58-59页
    4.2 基于深度图的虚拟视点绘制技术第59-61页
        4.2.1 DIBR技术的基本步骤第59-60页
        4.2.2 基于深度图视点合成的主要问题第60-61页
    4.3 基于图像域变形的虚拟视点合成算法第61-67页
        4.3.1 图像域变形算法的理论基础第61-62页
        4.3.2 虚拟视点合成算法的主要步骤第62-67页
    4.4 基于时空一致性的虚拟视点合成算法第67-74页
        4.4.1 基于时空一致性的合成方案框架第67-68页
        4.4.2 基于运动感知的时间约束第68-72页
        4.4.3 基于显著性曲线的视差约束第72-74页
    4.5 实验结果与分析第74-77页
    4.6 本章小结第77-78页
第五章 总结与展望第78-80页
    5.1 全文总结第78页
    5.2 未来工作展望第78-80页
参考文献第80-88页
致谢第88-90页
攻读学位论文期间发表的学术论文和科研成果目录第90-92页

论文共92页,点击 下载论文
上一篇:EPCglobal网络中安全高效的发现服务的设计与实现
下一篇:弹性光网络中频谱碎片整理问题的研究