基于机器视觉的智能轮椅障碍检测方法研究
摘要 | 第3-5页 |
ABSTRACT | 第5-6页 |
1 绪论 | 第10-19页 |
1.1 引言 | 第10-11页 |
1.2 国内外研究现状 | 第11-17页 |
1.2.1 摄像机标定研究现状 | 第12-13页 |
1.2.2 双目匹配研究现状 | 第13-15页 |
1.2.3 行人检测研究现状 | 第15-17页 |
1.3 本文主要研究内容 | 第17-18页 |
1.3.1 摄像机标定 | 第17页 |
1.3.2 立体匹配 | 第17页 |
1.3.3 目标检测与特征提取 | 第17-18页 |
1.3.4 障碍物信息确定 | 第18页 |
1.4 本文的内容及结构安排 | 第18-19页 |
2 双目立体视觉 | 第19-25页 |
2.1 生物视觉 | 第19-20页 |
2.1.1 生物视觉原理 | 第19页 |
2.1.2 基于人眼的立体视觉因素 | 第19-20页 |
2.2 机器视觉 | 第20-21页 |
2.3 双目立体视觉测距原理 | 第21-24页 |
2.3.1 双目光轴平行模式 | 第22-23页 |
2.3.2 双目光轴汇聚模式 | 第23-24页 |
2.4 本章小结 | 第24-25页 |
3. 摄像机标定 | 第25-39页 |
3.1 摄像机标定原理 | 第25-28页 |
3.1.1 摄像机标定中的坐标系 | 第25-26页 |
3.1.2 线性成像模型 | 第26-27页 |
3.1.3 坐标系转换关系 | 第27-28页 |
3.2 摄像机传统标定法 | 第28-29页 |
3.2.1 直接线性变换 | 第28-29页 |
3.2.2 非线性优化方法 | 第29页 |
3.2.3 RAC标定算法 | 第29页 |
3.3 摄像机的自标定方法 | 第29-30页 |
3.3.1 基于Kruppa方程的自标定方法 | 第29页 |
3.3.2 基于二次曲面的自标定方法 | 第29-30页 |
3.3.3 基于主动视觉的自标定法 | 第30页 |
3.4 张正友标定法 | 第30-32页 |
3.5 角点检测筛选方法 | 第32-33页 |
3.6 摄像机标定实验 | 第33-37页 |
3.6.1 标定环境 | 第33页 |
3.6.2 标定实验步骤 | 第33-34页 |
3.6.3 数据处理与分析 | 第34-37页 |
3.7 本章小结 | 第37-39页 |
4 行人检测 | 第39-47页 |
4.1 梯度方向直方图HOG特征 | 第39-41页 |
4.1.1 梯度方向直方图 | 第39页 |
4.1.2 HOG的优点 | 第39-40页 |
4.1.3 HOG体征提取算法 | 第40-41页 |
4.2 SVM分类器 | 第41-43页 |
4.3 行人检测实验 | 第43-46页 |
4.3.1 行人检测实验步骤 | 第43-44页 |
4.3.2 实验结果与分析 | 第44-46页 |
4.4 本章小结 | 第46-47页 |
5 双目立体视觉中的图像匹配 | 第47-56页 |
5.1 立体匹配约束准则 | 第47-48页 |
5.1.1. 唯一性约束 | 第47页 |
5.1.2. 视差约束 | 第47页 |
5.1.3. 相似性约束 | 第47页 |
5.1.4. 极线约束 | 第47-48页 |
5.2 几种常用的匹配算法 | 第48-51页 |
5.2.1 基于特征的立体匹配算法 | 第48-49页 |
5.2.2 局部匹配 | 第49页 |
5.2.3 全局匹配 | 第49-51页 |
5.3 动态规划匹配算法 | 第51-54页 |
5.3.1 动态规划原理 | 第51页 |
5.3.2 视差空间图像的建立 | 第51-52页 |
5.3.3 动态规划匹配算法 | 第52-54页 |
5.4 立体匹配实验 | 第54-55页 |
5.5 本章小结 | 第55-56页 |
6 利用双目进行障碍物定位 | 第56-64页 |
6.1 双目测距算法的实现 | 第56页 |
6.2 实验步骤 | 第56页 |
6.3 实验数据分析 | 第56-63页 |
6.3.1 对静态目标的测量 | 第57-60页 |
6.3.2 对移动目标的测量 | 第60-63页 |
6.4 本章小结 | 第63-64页 |
7 结论 | 第64-66页 |
7.1 本文工作总结 | 第64页 |
7.2 展望 | 第64-66页 |
参考文献 | 第66-69页 |
攻读硕士学位期间发表的论文 | 第69-70页 |
致谢 | 第70-72页 |