移动机器人自主视觉跟踪测控技术研究
| 摘要 | 第1-5页 |
| ABSTRACT | 第5-10页 |
| 第1章 绪论 | 第10-16页 |
| ·研究背景与意义 | 第10-12页 |
| ·国内外研究现状 | 第12-15页 |
| ·本文主要研究内容及结构安排 | 第15-16页 |
| 第2章 视觉跟踪测控总体研究方案 | 第16-21页 |
| ·总体方案 | 第16-17页 |
| ·视觉跟踪测控开发环境构建 | 第17-20页 |
| ·开源视觉库 OpenCV | 第17页 |
| ·OpenCV 的结构模块及内容 | 第17-18页 |
| ·OpenCV 在 VS2010 中的配置 | 第18-20页 |
| ·本章小结 | 第20-21页 |
| 第3章 双目视觉成像模式和视差 | 第21-30页 |
| ·图像坐标系 | 第21-23页 |
| ·数字图像的表示 | 第21-23页 |
| ·摄像机坐标系与世界坐标系的映射关系分析 | 第23-24页 |
| ·双目视觉成像模式研究 | 第24-29页 |
| ·横向平行模式 | 第24页 |
| ·视差与深度 | 第24-26页 |
| ·视差与测距精度关系的推导 | 第26-27页 |
| ·双目轴向模式 | 第27-28页 |
| ·双目横向会聚模式 | 第28-29页 |
| ·本章小结 | 第29-30页 |
| 第4章 双目视觉摄像机标定 | 第30-45页 |
| ·摄像机模型 | 第30-32页 |
| ·透镜畸变的类型分析 | 第32-34页 |
| ·基于 OpenCV 的摄像机标定方法研究 | 第34-44页 |
| ·标定原理 | 第34页 |
| ·平移和旋转的坐标系映射 | 第34-35页 |
| ·单应性矩阵求解 | 第35-36页 |
| ·摄像机内外参数求解 | 第36-38页 |
| ·标定实验步骤及结果 | 第38-44页 |
| ·本章小结 | 第44-45页 |
| 第5章 目标特征点检测与跟踪 | 第45-58页 |
| ·目标特征点检测算法研究 | 第45-53页 |
| ·Harris 算法 | 第46-47页 |
| ·H-S 算法的改进 | 第47-53页 |
| ·目标特征点光流跟踪算法研究 | 第53-56页 |
| ·Lucas-Kanade 光流跟踪算法 | 第53-54页 |
| ·金字塔 Lucas-Kanade 光流跟踪算法 | 第54-56页 |
| ·光流跟踪算法实验分析 | 第56-57页 |
| ·本章小结 | 第57-58页 |
| 第6章 立体视觉的匹配与目标跟踪 | 第58-73页 |
| ·立体视觉特征点匹配 | 第58-63页 |
| ·基于 SIFT 方法的特征点提取与匹配 | 第58-59页 |
| ·SIFT 的匹配实验分析 | 第59-63页 |
| ·目标跟踪方法研究 | 第63-67页 |
| ·基于滤波理论的跟踪方法 | 第64页 |
| ·基于偏微分方程的跟踪方法 | 第64页 |
| ·基于 Mean Shift 的跟踪方法 | 第64-66页 |
| ·本课题的目标跟踪方法 | 第66-67页 |
| ·目标跟踪实验结果与分析 | 第67-71页 |
| ·利用二维坐标求解深度 | 第68-69页 |
| ·目标跟踪的评价指标及误差分析 | 第69-71页 |
| ·本章小结 | 第71-73页 |
| 第7章 总结与展望 | 第73-75页 |
| ·论文总结 | 第73页 |
| ·建议与展望 | 第73-75页 |
| 参考文献 | 第75-77页 |
| 致谢 | 第77-78页 |
| 作者简历 | 第78页 |