致谢 | 第4-6页 |
摘要 | 第6-7页 |
Abstract | 第7页 |
1 绪论 | 第13-21页 |
1.1 研究背景 | 第13-14页 |
1.2 选题意义 | 第14页 |
1.3 国内外相关研究进展 | 第14-17页 |
1.3.1 移动机器人定位技术研究现状 | 第14-16页 |
1.3.2 爬壁机器人的定位 | 第16-17页 |
1.3.3 爬壁机器人研究现状 | 第17页 |
1.4 机器视觉概况 | 第17-20页 |
1.4.1 视觉测量系统组成 | 第18页 |
1.4.2 视觉测量的流程 | 第18-19页 |
1.4.3 机器视觉的应用 | 第19-20页 |
1.5 研究内容 | 第20页 |
1.5.1 视觉定位系统总体设计 | 第20页 |
1.5.2 相机模型与标定 | 第20页 |
1.5.3 图像坐标机器人方位检测 | 第20页 |
1.5.4 世界坐标机器人方位连续检测 | 第20页 |
1.6 小结 | 第20-21页 |
2 视觉定位系统总体设计 | 第21-36页 |
2.1 视觉定位系统布置与工作流程 | 第21-23页 |
2.1.1 单目视觉基本原理 | 第22页 |
2.1.2 单目视觉定位系统工作流程 | 第22-23页 |
2.2 墙面机器人检测总体方案 | 第23-25页 |
2.2.1 ROI跟踪检测 | 第23页 |
2.2.2 人工标志物 | 第23-24页 |
2.2.3 发光标志物 | 第24页 |
2.2.4 标志物设计 | 第24-25页 |
2.3 视觉定位性能指标 | 第25-27页 |
2.3.1 任务 | 第25页 |
2.3.2 部件 | 第25-26页 |
2.3.3 部件呈现 | 第26页 |
2.3.4 性能要求 | 第26页 |
2.3.5 环境 | 第26-27页 |
2.4 图像处理ROI与标志物尺寸设计 | 第27-28页 |
2.5 视觉定位系统设备选型 | 第28-35页 |
2.5.1 视野与分辨率 | 第28-29页 |
2.5.2 相机选型 | 第29-31页 |
2.5.3 镜头选型 | 第31-33页 |
2.5.4 定位信息传输设备选型 | 第33-34页 |
2.5.5 硬件平台 | 第34页 |
2.5.6 软件平台 | 第34页 |
2.5.7 机器视觉系统总体组成 | 第34-35页 |
2.6 小结 | 第35-36页 |
3 相机模型与标定 | 第36-65页 |
3.1 相机模型 | 第36-45页 |
3.1.1 四个层次的坐标系统 | 第36-37页 |
3.1.2 针孔成像模型 | 第37页 |
3.1.3 透镜畸变模型 | 第37-39页 |
3.1.4 四个坐标系间的变换关系 | 第39-41页 |
3.1.5 完整相机模型 | 第41-43页 |
3.1.6 二维投影变换与单应性 | 第43-45页 |
3.2 世界坐标提取 | 第45-47页 |
3.2.1 世界坐标提取步骤 | 第45-46页 |
3.2.2 从图像坐标提取世界坐标原理 | 第46-47页 |
3.3 相机标定 | 第47-50页 |
3.3.1 棋盘标定板与角点检测 | 第47-48页 |
3.3.2 相机标定算法 | 第48-49页 |
3.3.3 发生退化的配置 | 第49页 |
3.3.4 标定图像最少数目 | 第49页 |
3.3.5 相机标定的准确度 | 第49-50页 |
3.3.6 相机外参标定算法 | 第50页 |
3.4 相机标定精度评价 | 第50-53页 |
3.4.1 误差与测量 | 第50-51页 |
3.4.2 相机标定精度评价方法 | 第51-53页 |
3.4.3 相机标定精度分解 | 第53页 |
3.5 相机标定的操作流程 | 第53-55页 |
3.5.1 标定相机内参和畸变参数 | 第54页 |
3.5.2 标定相机外参 | 第54-55页 |
3.6 相机标定实验 | 第55-61页 |
3.6.1 标定准备 | 第55-56页 |
3.6.2 标定内参 | 第56-58页 |
3.6.3 畸变可视化 | 第58页 |
3.6.4 标定外参 | 第58-61页 |
3.7 畸变矫正与鸟瞰视图 | 第61-64页 |
3.7.1 图像处理中的几何变换 | 第62-63页 |
3.7.2 鸟瞰图获取 | 第63-64页 |
3.8 小结 | 第64-65页 |
4 图像坐标机器人方位检测 | 第65-78页 |
4.1 标志物图像基本分析 | 第65-67页 |
4.1.1 图像采集 | 第65页 |
4.1.2 不发光标志物 | 第65-66页 |
4.1.3 发光标志物 | 第66-67页 |
4.2 图像边缘检测与特征提取技术 | 第67-72页 |
4.2.1 边缘模型 | 第67-69页 |
4.2.2 LoG边缘检测 | 第69页 |
4.2.3 Canny边缘检测 | 第69-70页 |
4.2.4 二维边缘检测中的梯度算子与拉普拉斯算子 | 第70-72页 |
4.2.5 直线特征提取与Hough变换法 | 第72页 |
4.3 标志物边缘检测与特征提取实验 | 第72-74页 |
4.3.1 算法参数说明 | 第72页 |
4.3.2 不发光标志物检测测试 | 第72页 |
4.3.3 发光标志物检测测试 | 第72-74页 |
4.4 单帧ROI图像标志物方位检测算法 | 第74-77页 |
4.5 小结 | 第77-78页 |
5 世界坐标机器人方位连续检测 | 第78-90页 |
5.1 世界坐标机器人方位检测 | 第78-81页 |
5.1.1 方案一:先检测图像坐标,再提取世界坐标 | 第78-79页 |
5.1.2 方案二:先图像透镜畸变矫正,再检测目标,最后反向投影变换 | 第79页 |
5.1.3 方案三:先对图像透镜畸变和投影畸变矫正、再检测目标 | 第79页 |
5.1.4 世界坐标机器人方位检测算法 | 第79-80页 |
5.1.5 世界坐标机器人方位检测实验 | 第80-81页 |
5.2 世界坐标机器人方位检测精度评估 | 第81-87页 |
5.2.1 概述 | 第81-82页 |
5.2.2 检测精度测试板 | 第82页 |
5.2.3 检测误差评价方法 | 第82-83页 |
5.2.4 检测精度实验1 | 第83-85页 |
5.2.5 检测精度实验2 | 第85-86页 |
5.2.6 检测精度评估实验小结 | 第86-87页 |
5.3 世界坐标机器人方位连续检测 | 第87-89页 |
5.3.1 图像采集ROI与图像处理ROI | 第87页 |
5.3.2 检测流程 | 第87页 |
5.3.3 检测实验 | 第87页 |
5.3.4 检测算法耗时 | 第87-89页 |
5.4 小结 | 第89-90页 |
6 总结与展望 | 第90-92页 |
6.1 研究总结 | 第90-91页 |
6.2 未来展望 | 第91-92页 |
7 参考文献 | 第92-94页 |