基于双目立体视觉的自动引导车导航基础研究
| 第一章 引言 | 第1-18页 |
| ·课题的提出及意义 | 第7-8页 |
| ·国内外移动机器人和自动引导车研究现状 | 第8-12页 |
| ·国外移动机器人和自动引导车研究现状 | 第8-11页 |
| ·国内移动机器人和自动引导车研究现状 | 第11-12页 |
| ·移动机器人和自动引导车导航研究现状 | 第12-17页 |
| ·移动机器人和自动引导车导航方式 | 第12-14页 |
| ·移动机器人和自动引导车导航关键技术 | 第14-17页 |
| ·本文的主要研究内容 | 第17-18页 |
| 第二章 自动引导车的组成及工作原理 | 第18-26页 |
| ·自动引导车的车体组成 | 第18-19页 |
| ·传感器的选择与布局 | 第19-22页 |
| ·传感器的选择 | 第19-20页 |
| ·视觉传感器的选择 | 第19-20页 |
| ·避障传感器的选择 | 第20页 |
| ·传感器的布局 | 第20-22页 |
| ·视觉传感器的安装位置 | 第20-22页 |
| ·避障传感器的安装位置 | 第22页 |
| ·QDU-Ⅱ型自动引导车的硬件系统 | 第22-25页 |
| ·工控机 | 第23页 |
| ·图像采集卡 | 第23-24页 |
| ·PMAC控制卡 | 第24页 |
| ·放大器 | 第24页 |
| ·编码器 | 第24页 |
| ·电动机和减速器 | 第24-25页 |
| ·本章小结 | 第25-26页 |
| 第三章 双目视觉传感器标定 | 第26-34页 |
| ·双目视觉传感器的工作原理 | 第26-30页 |
| ·视觉传感器成像几何模型 | 第26-28页 |
| ·由视觉传感器模型建立线性方程组和参数的求解 | 第28-30页 |
| ·双目视觉传感器标定 | 第30-31页 |
| ·双目视觉传感器标定实验 | 第31-33页 |
| ·本章小结 | 第33-34页 |
| 第四章 双目立体视觉匹配和三维重建 | 第34-49页 |
| ·图像的预处理 | 第34-36页 |
| ·图像的中值滤波 | 第34-35页 |
| ·灰度直方图均衡 | 第35-36页 |
| ·立体匹配技术 | 第36-38页 |
| ·匹配特征的选择 | 第36-37页 |
| ·匹配准则 | 第37页 |
| ·算法结构 | 第37-38页 |
| ·特征选取与匹配 | 第38-43页 |
| ·特征选取 | 第38-40页 |
| ·边缘特征点的匹配 | 第40-42页 |
| ·相似性检验 | 第40-41页 |
| ·兼容性检验 | 第41-42页 |
| ·自选特征点的匹配 | 第42-43页 |
| ·立体匹配实验 | 第43-44页 |
| ·三维重建 | 第44-47页 |
| ·利用 OpenGL实现三维重建仿真实验 | 第47-48页 |
| ·本章小结 | 第48-49页 |
| 第五章 自动引导车定位和路径规划基础研究 | 第49-64页 |
| ·QDU-Ⅱ自动引导车的定位研究 | 第49-52页 |
| ·路径规划 | 第52-56页 |
| ·四叉树搜索模型 | 第52-53页 |
| ·基于栅格搜索算法的具体实现 | 第53-56页 |
| ·建模和工作空间的划分 | 第53-54页 |
| ·初始地图的生成 | 第54-55页 |
| ·搜索和最优路径的生成 | 第55-56页 |
| ·BP神经网络在局部路径规划中的应用 | 第56-60页 |
| ·BP神经网络结构 | 第56-57页 |
| ·BP神经网络的设计 | 第57-58页 |
| ·学习样本 | 第58-60页 |
| ·BP神经网络的学习模块 | 第60页 |
| ·路径规划的仿真实验 | 第60-63页 |
| ·仿真软件实现方法 | 第60-62页 |
| ·仿真实验结果 | 第62-63页 |
| ·本章小结 | 第63-64页 |
| 第六章 结论 | 第64-66页 |
| ·全文工作总结 | 第64页 |
| ·存在的问题及工作展望 | 第64-66页 |
| 参考文献 | 第66-70页 |
| 作者在攻读学位期间的研究成果 | 第70-71页 |
| 致谢 | 第71-72页 |
| 学位论文独创性声明、学位论文知识产权权属声明 | 第72页 |