首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

基于双目视觉的移动机器人跟踪技术研究

摘要第4-5页
ABSTRACT第5-6页
第一章 绪论第9-18页
    1.1 课题背景和意义第9-10页
    1.2 国内外研究现状第10-14页
        1.2.1 视觉机器人研究现状第10-11页
        1.2.2 立体视觉的研究现状第11-12页
        1.2.3 目标跟踪研究现状第12-14页
    1.3 论文的主要研究工作与结构安排第14-18页
        1.3.1 研究内容第14-17页
        1.3.2 后续章节安排第17-18页
第二章 双目立体视觉系统第18-26页
    2.1 摄像机的成像模型第18-20页
    2.2 立体视觉模型第20-21页
    2.3 摄像机标定模型第21-25页
        2.3.1 图像坐标系、摄像机坐标系和世界坐标系第22-23页
        2.3.2 本文使用的摄像机标定模型第23-25页
    2.4 本章小结第25-26页
第三章 移动机器人视频跟踪系统第26-35页
    3.1 视频跟踪理论基础第26-29页
        3.1.1 多示例学习第26-27页
        3.1.2 半监督学习第27-29页
    3.2 图像的特征表示第29-31页
        3.2.1 基于稀疏表示的类Haar特征第29-30页
        3.2.2 弱分类器的构建与更新第30-31页
    3.3 视频跟踪系统的整体构建流程第31-33页
        3.3.1 结合先验知识的多示例学习跟踪第31-32页
        3.3.2 目标回找机制第32-33页
    3.4 本章小结第33-35页
第四章 结合先验知识的多示例学习跟踪第35-53页
    4.1 样本重叠率先验信息第35-37页
    4.2 在线分类器的构建第37-41页
        4.2.1 Fisher线性判别模型第37-39页
        4.2.2 梯度下降模型第39-41页
    4.3 算法总体流程第41-42页
    4.4 实验第42-51页
        4.4.1 初始化参数配置第43页
        4.4.2 实验结果和分析第43-51页
    4.5 本章小结第51-53页
第五章 双目视觉移动机器人的目标跟踪第53-66页
    5.1 移动机器人中的立体视觉系统第53-55页
        5.1.1 Bumblebee2双目摄像机第53-54页
        5.1.2 图像坐标与像素坐标第54-55页
    5.2 双目视觉移动机器人的目标跟踪第55-59页
        5.2.1 机器人的配置参数第55-56页
        5.2.2 运动跟踪的实现过程第56-59页
    5.3 移动机器人目标跟踪与定位第59-65页
        5.3.1 实际场景中的移动机器人目标跟踪第59-63页
        5.3.2 目标物的定位第63-65页
    5.4 本章小结第65-66页
第六章 总结与展望第66-68页
参考文献第68-73页
致谢第73-74页
攻读学位期间的研究成果第74页

论文共74页,点击 下载论文
上一篇:面向嵌入式应用的网络性能提升的研究
下一篇:基于植物叶形状和叶脉的植物叶自动分类研究