首页--交通运输论文--公路运输论文--汽车工程论文--汽车结构部件论文--电气设备及附件论文

面向智能车的高精度视觉定位技术研究

摘要第4-6页
abstract第6-7页
第1章 绪论第10-19页
    1.1 研究背景及研究意义第10-11页
    1.2 智能车国内外研究现状第11-14页
    1.3 智能车定位技术研究现状第14-17页
    1.4 本文主要的研究内容及章节安排第17-19页
第2章 智能车载系统及视觉测量基本原理第19-35页
    2.1 摄像机成像模型与摄像机标定第19-24页
        2.1.1 图像坐标系、摄像机坐标系与世界坐标系及其关系第19-21页
        2.1.2 摄像机模型及单应矩阵H第21页
        2.1.3 摄像机标定——张正友标定法第21-24页
    2.2 常见的特征点检测与匹配方法第24-30页
        2.2.1 SIFT角点算子第24-27页
        2.2.2 ORB角点算子第27-29页
        2.2.3 特征点匹配第29页
        2.2.4 RANSAC算法剔除错误匹配点第29-30页
    2.3 智能车载系统第30-34页
        2.3.1 智能车载系统概述第30-31页
        2.3.2 车载视觉系统标定实验测试第31-34页
    2.4 本章小结第34-35页
第3章 基于人工路标的车辆视觉定位第35-47页
    3.1 人工路标数据库介绍及车辆定位原理第35-37页
        3.1.1 人工路标数据库第35-36页
        3.1.2 基于人工路标的车辆定位原理第36-37页
    3.2 交通标志识别第37-43页
        3.2.1 图像预处理第38-39页
        3.2.2 基于ORB算子的交通标志全局特征提取第39-40页
        3.2.3 基于ORB和BOW的交通标志局部特征提取第40-42页
        3.2.4 基于多特征空间融合的最近邻(H-KNN)交通标志识别第42-43页
    3.3 基于交通标志的车辆多尺度定位第43-46页
        3.3.1 基于GPS数据的车辆粗定位第43-44页
        3.3.2 图像匹配定位方法第44页
        3.3.3 度量级定位第44-46页
    3.4 本章小结第46-47页
第4章 基于自然场景的车辆视觉定位第47-65页
    4.1 道路场景建模第48-57页
        4.1.1 高精度的轨迹数据第49-50页
        4.1.2 SIFT、SURF和ORB场景局部特征提取第50-53页
        4.1.3 SURF和ORB算法场景全局特征提取第53-54页
        4.1.4 道路场景稀疏三维重建第54-56页
        4.1.5 三维重建精度测试第56-57页
    4.2 特征匹配第57-62页
        4.2.1 基于RANSAC算法的图像局部特征匹配第57-59页
        4.2.2 试验测试第59-62页
    4.3 自然场景下的车辆多尺度定位第62-64页
    4.4 本章小结第64-65页
第5章 实验设计第65-87页
    5.1 智能车实验平台介绍第65-66页
    5.2 基于人工路标的车辆定位实验第66-75页
        5.2.1 人工路标数据库建立第67-69页
        5.2.2 实验过程及结果第69-73页
        5.2.3 交通标志公共数据集识别结果第73-75页
    5.3 基于自然场景的车辆高精度定位实验第75-85页
        5.3.1 实验结果第76-82页
        5.3.2 特征点数目及参数调整第82-83页
        5.3.3 算法的软件展示第83-85页
    5.4 本章小结第85-87页
第6章 总结与展望第87-89页
    6.1 总结第87-88页
    6.2 展望第88-89页
致谢第89-90页
参考文献第90-95页
攻读硕士期间的研究成果第95-96页

论文共96页,点击 下载论文
上一篇:液质联用仪检测畜禽肉中四环素类药物残留的条件优化
下一篇:番茄果实可溶性糖含量遗传规律的研究及QTL定位