基于多传感器融合的室内定位跟随机器人的设计与制作
摘要 | 第3-4页 |
Abstract | 第4-5页 |
第一章 绪论 | 第8-13页 |
1.1 研究背景和意义 | 第8页 |
1.2 移动机器人国内外研究现状 | 第8-10页 |
1.3 移动机器人定位技术 | 第10-11页 |
1.4 论文的主要内容和结构 | 第11-13页 |
第二章 移动机器人平台设计与实现 | 第13-22页 |
2.1 硬件平台 | 第13-20页 |
2.2 软件系统 | 第20-21页 |
2.3 本章小结 | 第21-22页 |
第三章 惯性导航与轮式定位技术研究 | 第22-34页 |
3.1 惯性导航系统 | 第22-24页 |
3.2 坐标系 | 第24-27页 |
3.3 姿态位移解算 | 第27-29页 |
3.3.1 姿态解算 | 第27-28页 |
3.3.2 位移速度解算 | 第28-29页 |
3.4 航位推算 | 第29-30页 |
3.5 轮式惯性组合定位 | 第30-33页 |
3.6 本章小结 | 第33-34页 |
第四章 RGB-D视觉里程计 | 第34-55页 |
4.1 RGB-D相机 | 第34-39页 |
4.1.1 摄像机模型 | 第35-36页 |
4.1.2 摄像机内外参数 | 第36-37页 |
4.1.3 畸变参数 | 第37-38页 |
4.1.4 RGB-D相机的数学模型 | 第38-39页 |
4.2 RGB-D视觉里程计 | 第39-40页 |
4.3 图像特征提取与匹配 | 第40-51页 |
4.3.1 SIFT特征提取 | 第40-43页 |
4.3.2 SURF特征提取 | 第43-45页 |
4.3.3 ORB特征提取 | 第45-47页 |
4.3.4 特征点的匹配算法 | 第47-48页 |
4.3.5 特征提取匹配实验 | 第48-51页 |
4.4 基于RANSAC算法的运动估计 | 第51-53页 |
4.5 点云匹配 | 第53-54页 |
4.6 本章小结 | 第54-55页 |
第五章 多传感器融合定位算法 | 第55-70页 |
5.1 RGB-D视觉传感器与惯导的融合定位算法 | 第55-60页 |
5.1.1 扩展卡尔曼滤波器 | 第55-58页 |
5.1.2 预测方程的建立 | 第58-59页 |
5.1.3 观测方程的建立 | 第59-60页 |
5.2 多传感器融合的改进定位算法 | 第60-61页 |
5.3 系统定位实验与结果 | 第61-67页 |
5.4 改进定位算法在特征点稀少情况下定位实验 | 第67-69页 |
5.5 本章小结 | 第69-70页 |
第六章 跟随机器人的设计与实现 | 第70-76页 |
6.1 深度图像的获取与处理 | 第70-71页 |
6.2 跟随机器人的实现 | 第71-72页 |
6.3 实验 | 第72-75页 |
6.4 本章小结 | 第75-76页 |
第七章 总结与展望 | 第76-78页 |
7.1 总结 | 第76页 |
7.2 展望 | 第76-78页 |
参考文献 | 第78-82页 |
攻读硕士学位期间取得的科研成果 | 第82-83页 |
致谢 | 第83-84页 |