机器人双目视觉测障算法研究
摘要 | 第3-4页 |
abstract | 第4-5页 |
第一章 绪论 | 第8-13页 |
1.1 课题研究的目的和意义 | 第8-9页 |
1.2 课题国内外的研究现状 | 第9-10页 |
1.3 双目视觉测障的基本原理和技术 | 第10-12页 |
1.4 本文的研究内容与章节安排 | 第12-13页 |
第二章 机器人双目摄像头的标定与实现 | 第13-36页 |
2.1 引言 | 第13页 |
2.2 摄像机标定原理 | 第13-19页 |
2.2.1 摄像机坐标系统 | 第13-18页 |
2.2.2 摄像机成像模型 | 第18-19页 |
2.2.3 摄像机模型参数 | 第19页 |
2.3 摄像机常用标定方法 | 第19-25页 |
2.3.1 传统标定法 | 第20-25页 |
2.3.2 自标定法 | 第25页 |
2.3.3 主动视觉标定法 | 第25页 |
2.4 张正友棋盘标定法 | 第25-29页 |
2.4.1 棋盘标定原理 | 第26-28页 |
2.4.2 双目摄像头的标定方法 | 第28-29页 |
2.5 摄像头的标定及实验结果 | 第29-35页 |
2.6 本章小结 | 第35-36页 |
第三章 图像预处理与特征点检测 | 第36-49页 |
3.1 图像预处理 | 第36-38页 |
3.1.1 图像去噪 | 第36-37页 |
3.1.2 图像锐化增强 | 第37-38页 |
3.2 特征点检测 | 第38-44页 |
3.2.1 常用的特征点检测方法 | 第38-43页 |
3.2.2 改进的特征点检测方法 | 第43-44页 |
3.3 实验结果及分析 | 第44-48页 |
3.3.1 各种特征点检测算法效果对比 | 第45-46页 |
3.3.2 特征点检测算法的可行性验证 | 第46-48页 |
3.4 本章小结 | 第48-49页 |
第四章 双目立体匹配和测距 | 第49-70页 |
4.1 引言 | 第49页 |
4.2 立体匹配核心因素 | 第49-53页 |
4.2.1 匹配基元 | 第49-50页 |
4.2.2 匹配约束准则 | 第50-51页 |
4.2.3 相似性测度 | 第51-52页 |
4.2.4 搜索策略 | 第52-53页 |
4.3 常用立体匹配算法 | 第53-55页 |
4.4 基于改进相似性测度的立体匹配方法 | 第55-61页 |
4.4.1 改进的多相似性测度结合的匹配代价 | 第55-58页 |
4.4.2 匹配代价聚合 | 第58-59页 |
4.4.3 视差修正 | 第59-61页 |
4.5 实验分析 | 第61-69页 |
4.5.1 立体匹配算法验证 | 第61-67页 |
4.5.2 距离测量 | 第67-69页 |
4.6 本章小结 | 第69-70页 |
第五章 结论和展望 | 第70-72页 |
5.1 论文工作总结 | 第70页 |
5.2 展望 | 第70-72页 |
参考文献 | 第72-76页 |
作者在读研期间科研成果 | 第76-77页 |
致谢 | 第77页 |