摘要 | 第5-6页 |
abstract | 第6页 |
引言 | 第11-12页 |
1 绪论 | 第12-18页 |
1.1 论文研究背景和意义 | 第12-13页 |
1.2 双目立体视觉技术国内外研究现状 | 第13-16页 |
1.2.1 国外双目视觉技术研究现状 | 第13-14页 |
1.2.2 国内双目视觉技术研究现状 | 第14-15页 |
1.2.3 基于嵌入式平台双目成像系统的研究现状 | 第15-16页 |
1.3 论文研究的主要内容与组织结构 | 第16-17页 |
1.4 本章小结 | 第17-18页 |
2 双目视觉技术原理 | 第18-37页 |
2.1 立体视觉技术 | 第18-19页 |
2.2 相机成像模型与坐标变换 | 第19-23页 |
2.2.1 世界坐标系和摄像机坐标系的转换 | 第20页 |
2.2.2 摄像机坐标系和图像物理坐标系的转换 | 第20-21页 |
2.2.3 图像物理坐标系和图像像素坐标系的转换 | 第21-22页 |
2.2.4 图像像素坐标系与世界坐标系的转换 | 第22-23页 |
2.3 平行双目视觉模型与测距原理 | 第23-25页 |
2.3.1 平行双目相机模型 | 第23页 |
2.3.2 平行双目相机测距原理 | 第23-25页 |
2.4 汇聚双目视觉模型与测距原理 | 第25-28页 |
2.4.1 汇聚双目相机模型 | 第25-26页 |
2.4.2 汇聚双目相机测距原理 | 第26-28页 |
2.5 摄像机标定原理 | 第28-32页 |
2.5.1 相机标定介绍 | 第28-29页 |
2.5.2 直接线性变换法(DLT)及Tsai两步标定法 | 第29页 |
2.5.3 张正友相机标定原理 | 第29-32页 |
2.6 图像校正原理 | 第32-36页 |
2.6.1 对极几何与极线校正 | 第32-33页 |
2.6.2 Bouguet极线校正 | 第33-36页 |
2.7 本章小结 | 第36-37页 |
3 系统总体设计 | 第37-47页 |
3.1 开发平台介绍 | 第37-41页 |
3.1.1 Zynq-7000 处理器 | 第37-38页 |
3.1.2 Zynq开发板 | 第38-41页 |
3.2 系统软硬件协同开发 | 第41-43页 |
3.2.1 软硬件协同开发方法 | 第41页 |
3.2.2 软硬件协同设计模型 | 第41-43页 |
3.3 系统总体设计与软硬件结构框图 | 第43-46页 |
3.3.1 硬件结构框图 | 第44-45页 |
3.3.2 软件结构框图 | 第45-46页 |
3.4 本章小结 | 第46-47页 |
4 双目相机系统硬件平台设计 | 第47-91页 |
4.1 HDMI图像输出模块设计 | 第47-60页 |
4.1.1 TMDS传输原理及编码原理 | 第47-48页 |
4.1.2 HDMI接口硬件电路设计 | 第48-50页 |
4.1.3 VGA彩色图像接口电路设计 | 第50-52页 |
4.1.4 VGA通信协议分析 | 第52-55页 |
4.1.5 图像输出模块的Verilog代码实现 | 第55-60页 |
4.2 基于AXI VDMA的图像采集处理通道设计 | 第60-75页 |
4.2.1 VDMA介绍 | 第61-62页 |
4.2.2 图像采集通道硬件框架设计 | 第62-63页 |
4.2.3 VDMA显示系统硬件工程搭建 | 第63-71页 |
4.2.4 VDMA显示系统SDK开发 | 第71-74页 |
4.2.5 系统测试 | 第74-75页 |
4.3 OV5640 双目图像采集模块设计 | 第75-80页 |
4.3.1 CMOS图像传感器OV5640 介绍 | 第75-77页 |
4.3.2 OV5640 图像传感器上电时序 | 第77-78页 |
4.3.3 图像传感器驱动程序设计 | 第78-80页 |
4.4 双目OV5640 摄像头视频采集处理硬件系统设计 | 第80-88页 |
4.4.1 基于VDMA的视频采集处理通道设计 | 第80-81页 |
4.4.2 双摄像头视频采集处理模块总体硬件架构搭建 | 第81-82页 |
4.4.3 双目摄像头视频采集处理系统硬件工程搭建 | 第82-86页 |
4.4.4 双目摄像头视频采集处理系统SDK开发 | 第86-88页 |
4.5 双目摄像头视频采集处理系统测试 | 第88-91页 |
5 基于立体匹配算法的三维深度图像实现 | 第91-124页 |
5.1 基于Matlab的摄像机标定 | 第91-99页 |
5.1.1 单目相机的标定 | 第91-95页 |
5.1.2 双目相机的立体标定 | 第95-97页 |
5.1.3 标定结果及误差分析 | 第97-99页 |
5.2 双目立体匹配算法原理 | 第99-105页 |
5.2.1 基于窗口的匹配原则 | 第99-101页 |
5.2.2 BM区域立体匹配算法 | 第101-103页 |
5.2.3 SGBM半全局立体匹配算法 | 第103-105页 |
5.3 立体匹配算法的实现 | 第105-112页 |
5.3.1 基于罗德里格斯变换的旋转矫正及校正映射 | 第106页 |
5.3.2 基于Open CV库函数实现双目矫正 | 第106-108页 |
5.3.3 BM区域立体匹配算法实现深度图像 | 第108-110页 |
5.3.4 SGBM半全局立体匹配算法实现深度图像 | 第110-112页 |
5.4 改进的三维深度图像显示方法 | 第112-116页 |
5.4.1 Alpha半透明叠加算法 | 第112-113页 |
5.4.2 基于Matlab的图像半透明叠加算法实现 | 第113-116页 |
5.5 实验结果测试 | 第116-124页 |
5.5.1 基于BM算法和SGBM算法的空间点三维坐标获取测试 | 第116-121页 |
5.5.2 三种算法深度图像对比 | 第121-124页 |
结论 | 第124-126页 |
参考文献 | 第126-130页 |
在学研究成果 | 第130-131页 |
致谢 | 第131页 |