基于双目立体视觉的自动引导车导航基础研究
第一章 引言 | 第1-18页 |
·课题的提出及意义 | 第7-8页 |
·国内外移动机器人和自动引导车研究现状 | 第8-12页 |
·国外移动机器人和自动引导车研究现状 | 第8-11页 |
·国内移动机器人和自动引导车研究现状 | 第11-12页 |
·移动机器人和自动引导车导航研究现状 | 第12-17页 |
·移动机器人和自动引导车导航方式 | 第12-14页 |
·移动机器人和自动引导车导航关键技术 | 第14-17页 |
·本文的主要研究内容 | 第17-18页 |
第二章 自动引导车的组成及工作原理 | 第18-26页 |
·自动引导车的车体组成 | 第18-19页 |
·传感器的选择与布局 | 第19-22页 |
·传感器的选择 | 第19-20页 |
·视觉传感器的选择 | 第19-20页 |
·避障传感器的选择 | 第20页 |
·传感器的布局 | 第20-22页 |
·视觉传感器的安装位置 | 第20-22页 |
·避障传感器的安装位置 | 第22页 |
·QDU-Ⅱ型自动引导车的硬件系统 | 第22-25页 |
·工控机 | 第23页 |
·图像采集卡 | 第23-24页 |
·PMAC控制卡 | 第24页 |
·放大器 | 第24页 |
·编码器 | 第24页 |
·电动机和减速器 | 第24-25页 |
·本章小结 | 第25-26页 |
第三章 双目视觉传感器标定 | 第26-34页 |
·双目视觉传感器的工作原理 | 第26-30页 |
·视觉传感器成像几何模型 | 第26-28页 |
·由视觉传感器模型建立线性方程组和参数的求解 | 第28-30页 |
·双目视觉传感器标定 | 第30-31页 |
·双目视觉传感器标定实验 | 第31-33页 |
·本章小结 | 第33-34页 |
第四章 双目立体视觉匹配和三维重建 | 第34-49页 |
·图像的预处理 | 第34-36页 |
·图像的中值滤波 | 第34-35页 |
·灰度直方图均衡 | 第35-36页 |
·立体匹配技术 | 第36-38页 |
·匹配特征的选择 | 第36-37页 |
·匹配准则 | 第37页 |
·算法结构 | 第37-38页 |
·特征选取与匹配 | 第38-43页 |
·特征选取 | 第38-40页 |
·边缘特征点的匹配 | 第40-42页 |
·相似性检验 | 第40-41页 |
·兼容性检验 | 第41-42页 |
·自选特征点的匹配 | 第42-43页 |
·立体匹配实验 | 第43-44页 |
·三维重建 | 第44-47页 |
·利用 OpenGL实现三维重建仿真实验 | 第47-48页 |
·本章小结 | 第48-49页 |
第五章 自动引导车定位和路径规划基础研究 | 第49-64页 |
·QDU-Ⅱ自动引导车的定位研究 | 第49-52页 |
·路径规划 | 第52-56页 |
·四叉树搜索模型 | 第52-53页 |
·基于栅格搜索算法的具体实现 | 第53-56页 |
·建模和工作空间的划分 | 第53-54页 |
·初始地图的生成 | 第54-55页 |
·搜索和最优路径的生成 | 第55-56页 |
·BP神经网络在局部路径规划中的应用 | 第56-60页 |
·BP神经网络结构 | 第56-57页 |
·BP神经网络的设计 | 第57-58页 |
·学习样本 | 第58-60页 |
·BP神经网络的学习模块 | 第60页 |
·路径规划的仿真实验 | 第60-63页 |
·仿真软件实现方法 | 第60-62页 |
·仿真实验结果 | 第62-63页 |
·本章小结 | 第63-64页 |
第六章 结论 | 第64-66页 |
·全文工作总结 | 第64页 |
·存在的问题及工作展望 | 第64-66页 |
参考文献 | 第66-70页 |
作者在攻读学位期间的研究成果 | 第70-71页 |
致谢 | 第71-72页 |
学位论文独创性声明、学位论文知识产权权属声明 | 第72页 |