摘要 | 第5-6页 |
Abstract | 第6-7页 |
第一章 绪论 | 第11-19页 |
1.1 课题研究背景及意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-17页 |
1.2.1 双目视觉技术 | 第12-14页 |
1.2.2 相机标定 | 第14-15页 |
1.2.3 立体匹配 | 第15-17页 |
1.2.4 三维重建及三维信息获取 | 第17页 |
1.3 论文主要研究内容 | 第17-19页 |
第二章 摄像机标定与立体校正 | 第19-35页 |
2.1 双目立体视觉原理 | 第19-23页 |
2.1.1 摄像机成像模型 | 第19-21页 |
2.1.2 双目视觉测量原理 | 第21-23页 |
2.2 摄像机标定方法 | 第23-31页 |
2.2.1 摄像机标定概述 | 第23-24页 |
2.2.2 基于张正友“两步法”的摄像机标定 | 第24-26页 |
2.2.3 双目视觉系统设计 | 第26-27页 |
2.2.4 双目视觉系统标定实验 | 第27-31页 |
2.3 图像立体校正 | 第31-34页 |
2.3.1 立体校正概述 | 第31页 |
2.3.2 基于Bouguet算法的图像立体校正 | 第31-33页 |
2.3.3 立体校正实验 | 第33-34页 |
2.4 本章小结 | 第34-35页 |
第三章 图像预处理算法研究 | 第35-51页 |
3.1 图像滤波算法研究 | 第35-37页 |
3.1.1 常用滤波去噪算法 | 第35-36页 |
3.1.2 滤波去噪算法选取 | 第36-37页 |
3.2 图像边缘检测算法研究 | 第37-41页 |
3.2.1 边缘模型 | 第37-38页 |
3.2.2 常用边缘检测算子 | 第38-40页 |
3.2.3 边缘检测算法选取 | 第40-41页 |
3.3 改进的基于Otsu算法的Canny自适应边缘检测 | 第41-50页 |
3.3.1 大津阈值法 | 第41-42页 |
3.3.2 改进的基于Otsu的Canny自适应边缘检测算法 | 第42-47页 |
3.3.3 实验与分析 | 第47-50页 |
3.4 本章小结 | 第50-51页 |
第四章 基于灰度相关的边缘点分类匹配 | 第51-63页 |
4.1 立体匹配算法分析及匹配基元选取 | 第51-55页 |
4.2 基于灰度相关的边缘点分类匹配算法 | 第55-60页 |
4.2.1 匹配代价计算 | 第55-56页 |
4.2.2 立体匹配优化 | 第56-57页 |
4.2.3 基于分类点的匹配策略 | 第57-58页 |
4.2.4 视差细化处理 | 第58-60页 |
4.3 实验与分析 | 第60-62页 |
4.4 本章小结 | 第62-63页 |
第五章 基于边缘曲率角的目标轮廓三维信息提取 | 第63-75页 |
5.1 目标轮廓三维重建 | 第63-65页 |
5.1.1 三维重建概述 | 第63-64页 |
5.1.2 基于欧式空间的边缘轮廓三维重建 | 第64-65页 |
5.2 基于边缘曲率角的目标轮廓三维信息提取算法 | 第65-71页 |
5.2.1 三维点云数据预处理 | 第66页 |
5.2.2 点云数据环形排序算法及其优化 | 第66-68页 |
5.2.3 基于环形排序的点云分割 | 第68-69页 |
5.2.4 边缘曲率角定义及点云数据分类 | 第69-70页 |
5.2.5 曲线拟合及几何信息提取 | 第70-71页 |
5.3 目标轮廓三维信息提取实验 | 第71-74页 |
5.4 本章小结 | 第74-75页 |
第六章 基于双目视觉的机器人作业平台实验 | 第75-89页 |
6.1 机器人作业实验平台 | 第75页 |
6.2 SCARA机器人手眼标定 | 第75-80页 |
6.2.1 手眼标定概述 | 第76页 |
6.2.2 手眼标定方法 | 第76-78页 |
6.2.3 手眼标定实验 | 第78-80页 |
6.3 机器人作业环境三维信息检测实验 | 第80-87页 |
6.3.1 基于双目视觉的目标及障碍物检测与识别 | 第80-83页 |
6.3.2 基于双目视觉的机器人自主作业实验 | 第83-87页 |
6.4 关于机械臂遮挡问题 | 第87-88页 |
6.5 本章小结 | 第88-89页 |
总结与展望 | 第89-92页 |
全文总结 | 第89-90页 |
创新点或特色 | 第90页 |
未来展望 | 第90-92页 |
参考文献 | 第92-99页 |
攻读硕士学位期间取得的研究成果 | 第99-100页 |
致谢 | 第100-101页 |
附件 | 第101页 |