摘要 | 第6-7页 |
abstract | 第7页 |
第1章 绪论 | 第10-19页 |
1.1 引言 | 第10-11页 |
1.2 机器人研究中的两个重要问题 | 第11-12页 |
1.3 双目视觉研究现状 | 第12-14页 |
1.4 路径规划研究现状 | 第14-16页 |
1.5 论文的主要内容及创新点 | 第16-17页 |
1.6 论文的结构安排 | 第17-19页 |
第2章 双目立体视觉系统标定 | 第19-35页 |
2.1 引言 | 第19页 |
2.2 摄像机成像模型 | 第19-25页 |
2.2.1 相关参考坐标系的定义 | 第19-21页 |
2.2.2 理想摄像机模型 | 第21-24页 |
2.2.3 非线性摄像机模型 | 第24-25页 |
2.3 摄像机标定方法 | 第25-31页 |
2.3.1 摄像机标定方法概括 | 第25-26页 |
2.3.2 张正友平面标定法 | 第26-31页 |
2.4 摄像机标定实验 | 第31-34页 |
2.5 本章小结 | 第34-35页 |
第3章 特征提取与匹配 | 第35-49页 |
3.1 特征提取 | 第35-38页 |
3.1.1 图像特征 | 第36-37页 |
3.1.2 图像特征点提取方法 | 第37-38页 |
3.2 图像立体匹配 | 第38-40页 |
3.2.1 立体匹配算法 | 第38-39页 |
3.2.2 立体匹配约束规则 | 第39-40页 |
3.3 基于SURF算法的特征提取与匹配 | 第40-45页 |
3.3.1 SURF特征提取 | 第40-45页 |
3.3.2 SURF特征匹配 | 第45页 |
3.4 图像特征点提取与匹配实验 | 第45-48页 |
3.4.1 特征点提取与匹配 | 第45-46页 |
3.4.2 剔除误匹配特征点对的方法 | 第46-48页 |
3.5 本章小结 | 第48-49页 |
第4章 双目视觉定位 | 第49-63页 |
4.1 双目视觉系统分类 | 第49-50页 |
4.2 双目视觉视差测距原理 | 第50-51页 |
4.2.1 极线几何关系 | 第50-51页 |
4.2.2 双目视觉测距原理 | 第51页 |
4.3 图像特征点跟踪 | 第51-53页 |
4.4 运动参数估计 | 第53-54页 |
4.5 双目视觉定位实验 | 第54-62页 |
4.6 本章小结 | 第62-63页 |
第5章 基于人工势场法的机器人路径规划 | 第63-73页 |
5.1 传统人工势场法 | 第63-65页 |
5.2 人工势场法局部极小点缺点的改进方法 | 第65-66页 |
5.3 本文针对人工势场法局部极小点缺点的改进方法 | 第66-71页 |
5.3.1 自主建立虚拟目标牵引点 | 第67-70页 |
5.3.2 修改斥力方向和自主建立虚拟目标牵引点的混合算法 | 第70-71页 |
5.4 本文改进算法的实验结果及分析 | 第71-72页 |
5.5 本章小结 | 第72-73页 |
第6章 总结与展望 | 第73-74页 |
参考文献 | 第74-79页 |
攻读硕士学位期间发表论文及科研成果 | 第79-80页 |
致谢 | 第80-81页 |