首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

沉浸式视频对象融合技术研究

摘要第4-5页
Abstract第5-6页
第1章 引言第9-14页
    1.1 研究背景第9-10页
    1.2 问题的提出第10-11页
    1.3 本文贡献第11-12页
    1.4 研究内容及组织结构第12-14页
第2章 研究现状分析第14-19页
    2.1 沉浸式视频技术发展现状第14-15页
    2.2 沉浸式视频对象融合方法第15-16页
    2.3 沉浸式视频对象融合过程中时序一致性保持方法第16-18页
    2.4 本章小结第18-19页
第3章 时序一致的沉浸式视频对象融合方法第19-32页
    3.1 问题描述第19-20页
    3.2 沉浸式视频对象融合算法概述第20-24页
        3.2.1 基于几何块结构模型的前景深度信息求解第21-23页
        3.2.2 邻域结构模型的构建和背景深度恢复第23-24页
        3.2.3 视频对象融合具体过程第24页
    3.3 高斯滤波和CPF匹配算法原理介绍第24-27页
        3.3.1 高斯滤波算法第24-25页
        3.3.2 CPF匹配算法第25-27页
    3.4 时序一致的沉浸式视频对象融合方法设计第27-30页
        3.4.1 自适应帧间高斯滤波的设计第28-29页
        3.4.2 基于自适应帧间高斯滤波算法的时序保持的深度平滑方法第29-30页
    3.5 实验及结果分析第30-31页
    3.6 本章小结第31-32页
第4章 基于GPU并行化计算的沉浸式视频对象融合方法第32-45页
    4.1 问题描述第32页
    4.2 GPU相关技术第32-34页
        4.2.1 CUDA技术标准第33页
        4.2.2 Direct Show标准第33-34页
    4.3 基于GPU技术的并行化沉浸式视频对象融合算法第34-42页
        4.3.1 基于阈值恢复前景区域GPU并行化设计第35-37页
        4.3.2 基于几何块结构模型计算求解深度并GPU并行化设计第37-39页
        4.3.3 基于邻域微结构的半监督学习求解深度GPU并行化设计第39-42页
    4.4 实验及结果分析第42-44页
    4.5 本章小结第44-45页
第5章 沉浸式视频对象融合系统第45-55页
    5.1 Kinect深度传感器概述第45-47页
    5.2 Any Chat开发平台介绍第47-48页
    5.3 系统框架及原理第48-53页
        5.3.1 视频采集模块第49页
        5.3.2 视频对象及骨骼信息提取第49-50页
        5.3.3 视频融合第50-52页
        5.3.4 视频网络通信及回传第52-53页
    5.4 系统实现第53-54页
    5.5 本章小结第54-55页
第6章 总结与展望第55-57页
    6.1 本文工作总结第55-56页
    6.2 未来工作展望第56-57页
参考文献第57-60页
致谢第60页

论文共60页,点击 下载论文
上一篇:全自动锂电池电芯卷绕机张力与纠偏控制关键技术研究
下一篇:微波烹饪对白萝卜品质影响的研究