摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第10-23页 |
1.1 研究目的和意义 | 第10-11页 |
1.2 电子行走辅助系统的研究现状 | 第11-19页 |
1.3 常用自定位技术的发展现状 | 第19-21页 |
1.4 本论文的选题及研究方向 | 第21-23页 |
第二章 可穿戴式视觉定位系统研究 | 第23-31页 |
2.1 系统整体设计 | 第23-25页 |
2.2 信息融合与鲁棒视觉定位算法 | 第25-30页 |
2.2.1 信息融合方法 | 第25-27页 |
2.2.2 鲁棒立体视觉定位 | 第27-29页 |
2.2.3 信息融合中需要解决的问题 | 第29页 |
2.2.4 运动估计中的离群点检测算法 | 第29-30页 |
2.3 本章小结 | 第30-31页 |
第三章 惯性融合KLT特征跟踪算法研究 | 第31-48页 |
3.1 常规KLT特征跟踪算法基本思想 | 第31-34页 |
3.1.1 反向KLT跟踪算法原理 | 第32页 |
3.1.2 高斯-牛顿迭代法 | 第32-33页 |
3.1.3 常规KLT跟踪算法总结 | 第33-34页 |
3.2 运动模型选择及运动参数更新 | 第34-36页 |
3.3 运动参数初始值预测方法 | 第36-40页 |
3.3.1 初始运动参数预测 | 第36-37页 |
3.3.2 测误差与陀螺仪噪声 | 第37-39页 |
3.3.3 相机旋转矩阵求解方法 | 第39-40页 |
3.4 相机与陀螺仪的标定 | 第40-44页 |
3.4.1 标定算法研究基础 | 第40-41页 |
3.4.2 相机-陀螺仪旋转矩阵标定方法 | 第41-44页 |
3.5 数据信息的同步问题研究 | 第44页 |
3.6 模板更新 | 第44-45页 |
3.7 惯性融合KLT算法总体流程 | 第45-46页 |
3.8 本章小结 | 第46-48页 |
第四章 鲁棒立体视觉定位方法研究 | 第48-69页 |
4.1 相机模型与相机参数 | 第48-53页 |
4.1.1 相机模型——小孔模型 | 第49页 |
4.1.2 相机参数 | 第49-51页 |
4.1.3 摄像机标定 | 第51-52页 |
4.1.4 目测量原理 | 第52-53页 |
4.2 特征点的选取 | 第53-57页 |
4.2.1 特征点提取方法 | 第53-56页 |
4.2.2 特征点描述算子 | 第56-57页 |
4.3 立体匹配与特征点跟踪 | 第57-61页 |
4.3.1 配约束条件 | 第58-59页 |
4.3.2 特征匹配 | 第59-60页 |
4.3.3 特征跟踪 | 第60-61页 |
4.4 特征点的筛选 | 第61页 |
4.5 当前位姿估计 | 第61-65页 |
4.5.1 P3P问题的常用解法 | 第62-64页 |
4.5.2 牛顿高斯迭代求解运动参数 | 第64-65页 |
4.6 鲁棒立体视觉定位算法总体流程 | 第65-67页 |
4.7 本章小结 | 第67-69页 |
第五章 实验与分析 | 第69-82页 |
5.1 可穿戴式视觉定位系统实验平台 | 第69-72页 |
5.1.1 双目立体摄像机 | 第70页 |
5.1.2 1394b图像采集卡 | 第70-71页 |
5.1.3 数字陀螺仪 | 第71页 |
5.1.4 图像处理单元 | 第71-72页 |
5.2 相机与IMU的标定实验 | 第72-75页 |
5.2.1 标定实验步骤 | 第72-73页 |
5.2.2 数据计算 | 第73页 |
5.2.3 结果分析 | 第73-75页 |
5.3 图像信息与惯性信息的同步方法 | 第75-76页 |
5.4 验证预测矩阵H的正确性 | 第76-77页 |
5.5 惯性融合KLT算法与常规KLT算法的性能对比实验 | 第77-79页 |
5.6 可穿戴式视觉定位系统实际场景定位实验 | 第79-81页 |
5.7 本章小结 | 第81-82页 |
第六章 总结与展望 | 第82-84页 |
参考文献 | 第84-86页 |
致谢 | 第86-87页 |
攻读学位期间所获的学术成果 | 第87页 |