基于GPU的双目视觉立体定位技术实现
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第1章 绪论 | 第10-16页 |
1.1 课题研究的背景及意义 | 第10-11页 |
1.2 国内外研究现状和趋势 | 第11-14页 |
1.2.1 双目视觉立体定位技术研究现状 | 第11-12页 |
1.2.2 GPU并行计算技术的研究现状 | 第12-13页 |
1.2.3 基于GPU的立体视觉研究现状 | 第13-14页 |
1.3 课题研究目的和内容 | 第14-16页 |
第2章 双目视觉立体定位系统设计 | 第16-28页 |
2.1 双目视觉立体定位系统 | 第16-17页 |
2.2 双目视觉三维测量原理 | 第17-19页 |
2.3 双目视觉立体定位系统组成及实现 | 第19-20页 |
2.3.1 双目视觉立体定位系统组成 | 第19-20页 |
2.3.2 双目视觉立体定位系统实现流程 | 第20页 |
2.4 双目立体视觉定位系统硬件选型 | 第20-24页 |
2.4.1 CCD摄像机 | 第20-23页 |
2.4.2 嵌入式计算主板 | 第23-24页 |
2.5 双目立体视觉定位系统软件设计 | 第24-27页 |
2.6 本章小结 | 第27-28页 |
第3章 双目视觉立体定位算法实现 | 第28-44页 |
3.1 双目视觉立体定位算法流程 | 第28-29页 |
3.2 标志物识别及定位 | 第29-34页 |
3.2.1 标志物识别 | 第29-31页 |
3.2.2 标志物定位 | 第31-34页 |
3.3 摄像机标定 | 第34-39页 |
3.3.1 坐标系转换介绍 | 第34-36页 |
3.3.2 摄像机标定原理 | 第36-38页 |
3.3.3 摄像机立体标定实现 | 第38-39页 |
3.4 三维坐标计算 | 第39-42页 |
3.4.1 三维坐标计算理论 | 第39-40页 |
3.4.2 三维坐标计算实现 | 第40-42页 |
3.5 本章小结 | 第42-44页 |
第4章 双目视觉立体定位算法的GPU快速实现 | 第44-58页 |
4.1 整体并行方案 | 第44-45页 |
4.2 图像数据处理的GPU实现 | 第45-49页 |
4.2.1 颜色空间转换的GPU加速 | 第45-46页 |
4.2.2 直方图均衡的GPU加速 | 第46页 |
4.2.3 颜色阈值分割的GPU加速 | 第46-47页 |
4.2.4 形态学处理的GPU加速 | 第47-49页 |
4.3 三维解算的GPU实现 | 第49-50页 |
4.4 实验效果及分析 | 第50-57页 |
4.4.1 图像数据处理算法加速实验 | 第50-56页 |
4.4.2 三维坐标计算算法加速实验 | 第56页 |
4.4.3 实验结果分析 | 第56-57页 |
4.5 本章小结 | 第57-58页 |
第5章 双目视觉立体定位系统实验及分析 | 第58-74页 |
5.1 标志物检测实验 | 第58-60页 |
5.1.1 抗干扰性实验 | 第58-59页 |
5.1.2 抗遮挡性实验 | 第59-60页 |
5.2 距离计算实验 | 第60-69页 |
5.2.1 三维方向距离计算 | 第60-66页 |
5.2.2 摄像机旋转距离计算 | 第66-69页 |
5.3 双目视觉立体定位系统GPU加速实验 | 第69-72页 |
5.4 本章小结 | 第72-74页 |
结论 | 第74-76页 |
参考文献 | 第76-81页 |
致谢 | 第81页 |