首页--交通运输论文--公路运输论文--汽车工程论文--汽车结构部件论文--电气设备及附件论文

基于双目视觉的无人车行驶障碍物定位跟踪方法研究

摘要第4-5页
Abstract第5-6页
第一章 绪论第10-17页
    1.1 引言第10页
    1.2 无人车国内外的发展现状第10-12页
    1.3 无人车对环境感知识别技术的研究现状第12-14页
    1.4 双目视觉技术在无人车周围环境感知领域的研究现状第14-15页
    1.5 论文主要研究内容第15-17页
第二章 无人车双目立体视觉测量模型第17-32页
    2.1 无人车双目立体视觉摄像机模型与坐标系统第17-23页
        2.1.1 摄像机模型第17-20页
        2.1.2 无人车和摄像机的坐标系统第20-23页
    2.2 双目立体视觉测量技术第23-26页
        2.2.1 双目视觉测量基本原理第23-24页
        2.2.2 双目摄像机投影模型第24-26页
    2.3 无人车双目视觉系统测量模型建立第26-31页
    2.4 本章小结第31-32页
第三章 双目视觉系统的标定与立体测量第32-50页
    3.1 摄像机的标定第32-39页
        3.1.1 标定方法第32页
        3.1.2 张正友摄像机标定方法原理第32-34页
        3.1.3 双目立体视觉系统摄像机的标定第34-39页
    3.2 双目立体视觉系统的立体标定第39-40页
    3.3 无人车双目立体视觉系统的畸变矫正第40-41页
    3.4 无人车双目立体视觉系统的极线校正第41-43页
        3.4.1 极线约束第41-42页
        3.4.2 极线校正的Bouguet算法第42-43页
    3.5 双目图像匹配与障碍物位置立体测量第43-49页
        3.5.1 双目立体匹配第43-47页
        3.5.2 障碍物位置立体测量与深度信息获取第47-49页
    3.6 本章小结第49-50页
第四章 基于深度信息的障碍物定位与跟踪第50-66页
    4.1 直方图反向投影法障碍物检测第50-56页
        4.1.1 直方图和直方图的比较方法第50-52页
        4.1.2 直方图反向投影第52-54页
        4.1.3 图像的形态学腐蚀—膨胀算法第54页
        4.1.4 直方图反向投影障碍物检测算法验证第54-56页
    4.2 基于深度信息提取的障碍物检测第56-58页
        4.2.1 图像中的轮廓提取方法第56页
        4.2.2 视差图中的轮廓获取和障碍物定位检测第56-58页
    4.3 基于深度信息的无人车障碍物跟踪第58-65页
        4.3.1 MeanShift和CamShift跟踪算法原理第59-63页
        4.3.2 基于深度信息的CamShift跟踪算法第63-64页
        4.3.3 改进跟踪算法的试验验证第64-65页
    4.4 本章小结第65-66页
第五章 无人车障碍物的检测跟踪方法实现与试验第66-77页
    5.1 双目立体测试平台搭建及其参数第66-68页
        5.1.1 测试平台硬件组成第66-67页
        5.1.2 程序界面与软件配置第67-68页
        5.1.3 双目立体视觉验证平台参数影响分析第68页
    5.2 双目立体视觉障碍物跟踪测试平台算法流程第68-69页
    5.3 双目立体视觉系统的深度信息测量精度验证第69-72页
    5.4 基于深度信息的实时跟踪试验验证第72-76页
        5.4.1 试验方案第72-73页
        5.4.2 试验数据分析与结论第73-76页
    5.5 本章小结第76-77页
第六章 全文总结与展望第77-79页
    6.1 全文总结第77-78页
    6.2 展望第78-79页
参考文献第79-83页
攻读学位期间取得的研究成果第83-84页
致谢第84页

论文共84页,点击 下载论文
上一篇:基于眼动与脉搏信息融合的驾驶疲劳识别算法研究
下一篇:基于历代诗的泰山旅游凝视研究