| 摘要 | 第1页 |
| Abstract | 第6-7页 |
| 详细摘要 | 第7-10页 |
| Detailed Abstract | 第10-16页 |
| 1 绪论 | 第16-26页 |
| ·选题的背景和目的 | 第16-17页 |
| ·三维重建研究的主要内容 | 第17-20页 |
| ·基于移动机器人的三维场景重建研究 | 第20页 |
| ·基于移动机器人的三维场景重建方法 | 第20-22页 |
| ·本论文研究的主要内容 | 第22-24页 |
| ·论文结构 | 第24页 |
| ·小结 | 第24-26页 |
| 2 井下移动机器人双目视觉的基本原理 | 第26-42页 |
| ·摄像机成像模型 | 第26-30页 |
| ·基本模型 | 第26-27页 |
| ·主点偏离图像中心 | 第27-28页 |
| ·CCD摄像机 | 第28-29页 |
| ·摄像机矩阵的一般形式 | 第29-30页 |
| ·双目立体视觉系统 | 第30-35页 |
| ·交向摆放的双目视觉模型 | 第31-33页 |
| ·正直摆放的视觉传感器模型 | 第33-35页 |
| ·井下移动机器人双目立体视觉模型 | 第35-41页 |
| ·井下移动机器人立体视觉系统 | 第35-36页 |
| ·井下移动机器人双目立体视觉测量的影响因素 | 第36-37页 |
| ·景深与测量精度的关系 | 第37-38页 |
| ·基线与视觉测量精度 | 第38-41页 |
| ·小结 | 第41-42页 |
| 3 井下移动机器人摄像机标定方法研究 | 第42-76页 |
| ·摄像机标定原理 | 第42-45页 |
| ·传统摄像机标定方法 | 第45-52页 |
| ·直接线性变换(DLT变换) | 第45-46页 |
| ·R.Tsai的RAC的定标算法 | 第46-49页 |
| ·张正友的平面标定方法 | 第49-52页 |
| ·摄像机的自标定方法 | 第52-54页 |
| ·基于消隐点摄像机标定方法 | 第54-57页 |
| ·消隐点与消隐线 | 第54-55页 |
| ·基于消隐点的摄像机自标定 | 第55-57页 |
| ·基于两次哈夫变换的消隐点检测 | 第57-63页 |
| ·哈夫变换原理 | 第57-59页 |
| ·基于两次哈夫变换的消隐点检测 | 第59-63页 |
| ·井下移动机器人双目视觉摄像机的标定方法研究 | 第63-74页 |
| ·标定采用的摄像机模型 | 第63-64页 |
| ·利用消隐点对摄像机进行标定 | 第64-67页 |
| ·井下移动机器人双目视觉摄像机的标定实验 | 第67-74页 |
| ·小结 | 第74-76页 |
| 4 双目视觉的立体匹配研究 | 第76-120页 |
| ·立体匹配约束 | 第76-79页 |
| ·基于图像几何约束 | 第76-78页 |
| ·基于三维场景约束 | 第78-79页 |
| ·立体匹配算法 | 第79-80页 |
| ·基于局部约束匹配算法 | 第79-80页 |
| ·基于全局部约束匹配算法 | 第80页 |
| ·基于区域的匹配 | 第80-82页 |
| ·匹配准则 | 第81-82页 |
| ·改进基于区域的图像匹配的方法 | 第82页 |
| ·基于特征的匹配 | 第82-87页 |
| ·SUSAN算子 | 第83-85页 |
| ·Harris的算子 | 第85-87页 |
| ·基于Sift的图像匹配 | 第87-97页 |
| ·尺度空间的生成 | 第88-91页 |
| ·DOG空间的局部极值点检测 | 第91-93页 |
| ·特征点方向分配 | 第93-94页 |
| ·关键点描述子生成 | 第94-96页 |
| ·特征点的匹配 | 第96-97页 |
| ·基于特征与支持权值相结合的立体匹配方法 | 第97-107页 |
| ·基于SIFT特征的匹配 | 第97-101页 |
| ·基于Sobel算子的边缘检测 | 第101-103页 |
| ·支持自适应权值的区域匹配 | 第103-105页 |
| ·图像匹配实验 | 第105-107页 |
| ·基于移动机器人双目视觉的空间点三维坐标计算 | 第107-118页 |
| ·空间点的三维坐标的计算方法 | 第107-108页 |
| ·直线的位置计算方法 | 第108-109页 |
| ·基于平行双目视觉的空间点三维重建 | 第109-113页 |
| ·基于平行双目视觉的空间点三维坐标计算实验 | 第113-118页 |
| ·小结 | 第118-120页 |
| 5 基于井下移动机器人的三维场景重建研究 | 第120-146页 |
| ·基于Delaunay剖分的散乱数据的三维重建 | 第120-123页 |
| ·三角剖分与基于Delaunay的三角剖分定义 | 第120-121页 |
| ·Delaunay三角剖分的准则 | 第121-122页 |
| ·Delaunay三角剖分的算法实现 | 第122-123页 |
| ·纹理映射 | 第123-127页 |
| ·纹理映技术 | 第124-125页 |
| ·二维纹理映射 | 第125-126页 |
| ·三维纹理映射 | 第126页 |
| ·几何纹理映射 | 第126-127页 |
| ·井下场景三维点数据的拼接 | 第127-138页 |
| ·基于激光扫描三维数据的拼接 | 第127-131页 |
| ·基于移动机器人双目视觉井下相邻场景三维数据的拼接 | 第131-136页 |
| ·基于移动机器人双目视觉与惯性导航结合的井下相邻场景三维数据的拼接 | 第136-138页 |
| ·井下环境三维重建实验 | 第138-144页 |
| ·实验参数 | 第139-140页 |
| ·实验结果分析 | 第140-144页 |
| ·小结 | 第144-146页 |
| 6 结论与展望 | 第146-148页 |
| ·本文主要结论 | 第146-147页 |
| ·本论文研究的特色与创新性 | 第147页 |
| ·对进一步工作的建议和展望 | 第147-148页 |
| 参考文献 | 第148-154页 |
| 致谢 | 第154-155页 |
| 作者简介 | 第155页 |
| 在学期间发表的学术论文 | 第155页 |
| 在学期间参加科研项目 | 第155页 |