首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

串联机器人实时双目视觉定位及跟踪技术研究

摘要第4-5页
Abstract第5页
第1章 绪论第9-16页
    1.1 课题研究背景和意义第9-10页
    1.2 国内外研究现状及发展方向第10-13页
        1.2.1 国内外研究现状第10-12页
        1.2.2 视觉伺服发展方向第12-13页
    1.3 研究方案第13-14页
    1.4 本文的结构框架与主要内容第14-16页
第2章 目标在图像中的定位技术研究第16-26页
    2.1 特征点提取算法第16-18页
        2.1.1 Harris角点检测第16-17页
        2.1.2 Fast角点检测第17-18页
    2.2 特征点提取与匹配算法第18-25页
        2.2.1 Sift算法第18-20页
        2.2.2 Surf算法第20-21页
        2.2.3 Orb算法第21-24页
        2.2.4 基于描述子的匹配第24-25页
    2.3 本章总结第25-26页
第3章 图像到三维的映射第26-35页
    3.1 相机的基本理论第26-28页
        3.1.1 相机的针孔模型第26-27页
        3.1.2 基本投影几何第27页
        3.1.3 透镜畸变第27-28页
    3.2 双目的标定与校正第28-32页
        3.2.1 张正友标定算法原理第28-30页
        3.2.2 对极几何第30-31页
        3.2.3 相机立体校正第31-32页
    3.3 三角测量与重投影第32-34页
    3.4 本章总结第34-35页
第4章 立体匹配算法第35-44页
    4.1 常见立体匹配算法第35页
    4.2 ELAS立体匹配算法第35-39页
        4.2.1 立体匹配算法效果对比第36-37页
        4.2.2 ELAS算法原理第37-39页
        4.2.3 ELAS算法分析第39页
    4.3 改进的ELAS立体匹配算法第39-43页
        4.3.1 基于视差连续性约束的改进第39-42页
        4.3.2 改进算法的效果第42-43页
    4.4 本章总结第43-44页
第5章 串联机器人的视觉伺服控制研究第44-57页
    5.1 视觉伺服控制律第44-46页
    5.2 基于位置的视觉伺服控制第46-47页
    5.3 基于图像的视觉伺服控制第47-51页
    5.4 混合视觉伺服控制第51-56页
        5.4.1 一般的混合视觉伺服控制第52-54页
        5.4.2 基于极线的混合视觉伺服控制第54-56页
    5.5 本章总结第56-57页
第6章 移动目标跟踪技术研究第57-69页
    6.1 线性卡尔曼滤波第57-61页
        6.1.1 在图像平面中的跟踪第58-59页
        6.1.2 在 3D空间中的跟踪第59-61页
    6.2 扩展卡尔曼滤波算法第61-64页
        6.2.1 扩展kalman滤波算法过程第61-62页
        6.2.2 扩展kalman滤波应用第62-64页
    6.3 交互多模型卡尔曼滤波算法第64-68页
        6.3.1 IMM算法过程第65-66页
        6.3.2 IMM算法应用第66-68页
    6.4 本章总结第68-69页
第7章 结论与展望第69-70页
    7.1 总结第69页
    7.2 展望第69-70页
参考文献第70-74页
致谢第74页

论文共74页,点击 下载论文
上一篇:侵权领域惩罚性赔偿制度适用问题研究
下一篇:第三人利用信用卡进行套现的行为定性分析--以钱某某等人非法经营案为例