首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

可穿戴式视觉辅助定位系统

摘要第4-5页
ABSTRACT第5-6页
第一章 绪论第10-23页
    1.1 研究目的和意义第10-11页
    1.2 电子行走辅助系统的研究现状第11-19页
    1.3 常用自定位技术的发展现状第19-21页
    1.4 本论文的选题及研究方向第21-23页
第二章 可穿戴式视觉定位系统研究第23-31页
    2.1 系统整体设计第23-25页
    2.2 信息融合与鲁棒视觉定位算法第25-30页
        2.2.1 信息融合方法第25-27页
        2.2.2 鲁棒立体视觉定位第27-29页
        2.2.3 信息融合中需要解决的问题第29页
        2.2.4 运动估计中的离群点检测算法第29-30页
    2.3 本章小结第30-31页
第三章 惯性融合KLT特征跟踪算法研究第31-48页
    3.1 常规KLT特征跟踪算法基本思想第31-34页
        3.1.1 反向KLT跟踪算法原理第32页
        3.1.2 高斯-牛顿迭代法第32-33页
        3.1.3 常规KLT跟踪算法总结第33-34页
    3.2 运动模型选择及运动参数更新第34-36页
    3.3 运动参数初始值预测方法第36-40页
        3.3.1 初始运动参数预测第36-37页
        3.3.2 测误差与陀螺仪噪声第37-39页
        3.3.3 相机旋转矩阵求解方法第39-40页
    3.4 相机与陀螺仪的标定第40-44页
        3.4.1 标定算法研究基础第40-41页
        3.4.2 相机-陀螺仪旋转矩阵标定方法第41-44页
    3.5 数据信息的同步问题研究第44页
    3.6 模板更新第44-45页
    3.7 惯性融合KLT算法总体流程第45-46页
    3.8 本章小结第46-48页
第四章 鲁棒立体视觉定位方法研究第48-69页
    4.1 相机模型与相机参数第48-53页
        4.1.1 相机模型——小孔模型第49页
        4.1.2 相机参数第49-51页
        4.1.3 摄像机标定第51-52页
        4.1.4 目测量原理第52-53页
    4.2 特征点的选取第53-57页
        4.2.1 特征点提取方法第53-56页
        4.2.2 特征点描述算子第56-57页
    4.3 立体匹配与特征点跟踪第57-61页
        4.3.1 配约束条件第58-59页
        4.3.2 特征匹配第59-60页
        4.3.3 特征跟踪第60-61页
    4.4 特征点的筛选第61页
    4.5 当前位姿估计第61-65页
        4.5.1 P3P问题的常用解法第62-64页
        4.5.2 牛顿高斯迭代求解运动参数第64-65页
    4.6 鲁棒立体视觉定位算法总体流程第65-67页
    4.7 本章小结第67-69页
第五章 实验与分析第69-82页
    5.1 可穿戴式视觉定位系统实验平台第69-72页
        5.1.1 双目立体摄像机第70页
        5.1.2 1394b图像采集卡第70-71页
        5.1.3 数字陀螺仪第71页
        5.1.4 图像处理单元第71-72页
    5.2 相机与IMU的标定实验第72-75页
        5.2.1 标定实验步骤第72-73页
        5.2.2 数据计算第73页
        5.2.3 结果分析第73-75页
    5.3 图像信息与惯性信息的同步方法第75-76页
    5.4 验证预测矩阵H的正确性第76-77页
    5.5 惯性融合KLT算法与常规KLT算法的性能对比实验第77-79页
    5.6 可穿戴式视觉定位系统实际场景定位实验第79-81页
    5.7 本章小结第81-82页
第六章 总结与展望第82-84页
参考文献第84-86页
致谢第86-87页
攻读学位期间所获的学术成果第87页

论文共87页,点击 下载论文
上一篇:大流量网络下串匹配算法的优化研究
下一篇:不完全数据中缺失值填充关键技术研究