首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

排爆机器人双目立体视觉定位技术的研究

摘要第4-5页
abstract第5页
第一章 绪论第8-15页
    1.1 研究背景及意义第8-9页
    1.2 双目立体视觉定位技术国内外研究现状第9-12页
        1.2.1 国外研究现状第9-10页
        1.2.2 国内研究现状第10-12页
    1.3 双目立体视觉定位测量系统的构成第12-13页
    1.4 本文研究的主要内容与各章节安排第13-15页
第二章 双目立体视觉定位测量原理及相机标定第15-27页
    2.1 双目立体视觉定位测量原理第15-22页
        2.1.1 相关坐标系第15-16页
        2.1.2 视觉测量中坐标系的转换第16-17页
        2.1.3 摄像机成像模型第17-20页
        2.1.4 双目立体视觉定位测量基本原理及测量模型第20-22页
    2.2 双目相机标定第22-25页
        2.2.1 相机的标定方法第22-23页
        2.2.2 双目相机标定实验及结果分析第23-25页
    2.3 本章小结第25-27页
第三章 图像预处理及特征检测算法第27-40页
    3.1 图像预处理第27-29页
        3.1.1 图像灰度化第27-28页
        3.1.2 图像滤波处理第28-29页
    3.2 基于OpenCV的图像滤波处理分析第29-30页
    3.3 图像特征检测算法第30-33页
        3.3.1 SIFT算法第30-31页
        3.3.2 SURF算法第31-32页
        3.3.3 ORB算法第32-33页
    3.4 检测算法的比较选取第33-39页
    3.5 本章小结第39-40页
第四章 排爆机器人静态图像立体匹配及测量第40-59页
    4.1 立匹配约束条件第40页
    4.2 常用的立体匹配算法第40-42页
    4.3 基于Flann开源库算法的特征点匹配第42-51页
    4.4 去除误匹配第51-55页
        4.4.1 去除误匹配算法第52-53页
        4.4.2 去除误差匹配实验第53-55页
    4.5 静态图像定位测量实验第55-58页
        4.5.1 静态图像自匹配定位测量第55-56页
        4.5.2 静态图像非匹配定位测量第56-58页
    4.6 本章小结第58-59页
第五章 排爆机器人双目立体视觉动态跟踪测量第59-72页
    5.1 图像的跟踪算法第59-60页
    5.2 CamShift跟踪算法第60-62页
    5.3 改进的CamShift算法第62-68页
        5.3.1 Kalman预测器第62-64页
        5.3.2 双目立体视觉跟踪的极线约束第64-65页
        5.3.3 改进后的跟踪算法第65页
        5.3.4 跟踪目标丢失时应对机制第65-68页
    5.4 动态图像跟踪定位测量实验第68-70页
    5.5 排爆机器人双目立体视觉定位测量误差分析第70-71页
    5.6 本章小结第71-72页
总结与展望第72-74页
    总结第72页
    展望第72-74页
参考文献第74-77页
攻读学位期间获得的研究成果第77-78页
致谢第78页

论文共78页,点击 下载论文
上一篇:关联交易对企业价值的影响--基于中国上市公司的实证研究
下一篇:外资并购对目标公司绩效影响的实证研究