摘要 | 第11-13页 |
ABSTRACT | 第13-15页 |
第1章 绪论 | 第16-36页 |
1.1 研究背景 | 第16-19页 |
1.2 研究现状和研究难点 | 第19-31页 |
1.2.1 深度置信度估计 | 第20-22页 |
1.2.2 RGB-D传感器彩色和深度图像配准 | 第22-25页 |
1.2.3 深度图像修补 | 第25-28页 |
1.2.4 深度图像超分辨率 | 第28-31页 |
1.3 主要研究内容和创新点 | 第31-33页 |
1.4 组织结构 | 第33-36页 |
第2章 深度图像置信度估计 | 第36-50页 |
2.1 方法简介 | 第36-38页 |
2.2 Kinect深度置信度估计 | 第38-45页 |
2.2.1 特征提取 | 第39-42页 |
2.2.2 训练数据 | 第42-44页 |
2.2.3 置信度预测模型 | 第44-45页 |
2.3 实验 | 第45-48页 |
2.4 小结 | 第48-50页 |
第3章 基于偏移建模的RGB-D传感器深度和彩色图像配准 | 第50-74页 |
3.1 方法简介 | 第50-52页 |
3.2 RGB-D配准模型 | 第52-57页 |
3.2.1 RGB-D投影模型 | 第52-54页 |
3.2.2 偏移模型 | 第54-57页 |
3.2.2.1 偏移量值 | 第54-56页 |
3.2.2.2 偏移方向 | 第56-57页 |
3.3 配准方法 | 第57-63页 |
3.3.1 综述 | 第57页 |
3.3.2 单应性约束估计深度理论角点 | 第57-59页 |
3.3.3 深度观测角点提取 | 第59-60页 |
3.3.4 优化 | 第60-63页 |
3.3.4.1 估计(?) | 第60-61页 |
3.3.4.2 估计系统偏移分量 | 第61-62页 |
3.3.4.3 估计随机偏移分量γ | 第62-63页 |
3.4 实验 | 第63-72页 |
3.4.1 数据准备 | 第64-65页 |
3.4.1.1 (?)的估计数据 | 第64页 |
3.4.1.2 偏移模型F的估计数据 | 第64-65页 |
3.4.2 深度理论角点的准确性和稳定性 | 第65-68页 |
3.4.3 深度相机偏移的方向(ψ)准确度估计 | 第68-69页 |
3.4.4 结果 | 第69-71页 |
3.4.5 实验结果比较 | 第71-72页 |
3.5 小结 | 第72-74页 |
第4章 深度图像超分辨率 | 第74-104页 |
4.1 方法简介 | 第74-76页 |
4.2 渐进式卷积神经网络方法(PDCNN-DSR) | 第76-81页 |
4.2.1 PDCNN-DSR网络结构 | 第77-78页 |
4.2.2 彩色图像与深度图像局部一致性约束 | 第78-80页 |
4.2.3 深度统计信息约束 | 第80页 |
4.2.4 能量最小化公式 | 第80-81页 |
4.3 基于视点合成的深度监督卷积神经网络方法(VDCNN-DSR) | 第81-93页 |
4.3.1 动机 | 第82-83页 |
4.3.2 视点合成策略 | 第83-86页 |
4.3.3 深度监督策略 | 第86页 |
4.3.4 多尺度融合策略(MFS) | 第86-87页 |
4.3.5 VDCNN-DSR网络结构 | 第87-89页 |
4.3.6 深度图像统计信息(DFS) | 第89页 |
4.3.7 能量优化公式 | 第89-90页 |
4.3.8 网络实施细节 | 第90-93页 |
4.4 实验 | 第93-103页 |
4.4.1 非噪声数据 | 第95-96页 |
4.4.2 噪声数据 | 第96-97页 |
4.4.3 大超分辨率倍数 | 第97-99页 |
4.4.4 PDCNN-DSR分析 | 第99-100页 |
4.4.5 VDCNN-DSR分析 | 第100-103页 |
4.4.5.1 VDCNN-DSR训练单元网络层数分析 | 第100-102页 |
4.4.5.2 VDCNN-DSR运行时间分析 | 第102页 |
4.4.5.3 VDCNN-DSR泛化能力分析 | 第102-103页 |
4.5 小结 | 第103-104页 |
第5章 总结和展望 | 第104-106页 |
5.1 全文总结 | 第104-105页 |
5.2 工作展望 | 第105-106页 |
参考文献 | 第106-120页 |
致谢 | 第120-121页 |
攻读学位期间发表的学术论文目录 | 第121-122页 |
攻读学位期间参与科研项目情况 | 第122-123页 |
外文论文 | 第123-164页 |
附件 | 第164页 |