首页--交通运输论文--公路运输论文--汽车工程论文--汽车结构部件论文--电气设备及附件论文

面向智能车的道路场景建模与高精度定位研究

摘要第4-6页
abstract第6-7页
第1章 绪论第11-29页
    1.1 研究背景及意义第11-14页
    1.2 智能车辆研究现状第14-18页
        1.2.1 智能车发展概况第14-16页
        1.2.2 智能车环境感知发展概况第16-18页
    1.3 智能车定位技术研究现状第18-24页
        1.3.1 同时制图与定位技术研究综述第19-20页
        1.3.2 基于地图的智能车定位技术研究综述第20-24页
    1.4 现有研究存在的问题分析第24-25页
    1.5 主要研究内容及章节安排第25-29页
第2章 智能车定位系统及其车载传感器的标定第29-56页
    2.1 引言第29-31页
        2.1.1 车载传感器标定的关键问题分析第29页
        2.1.2 LRF与摄像机标定研究现状第29-31页
    2.2 智能车定位系统方案设计第31-35页
    2.3 车载摄像机模型及其标定第35-37页
    2.4 基于垂直三面体的二维激光与车载摄像机标定第37-43页
        2.4.1 虚拟三面体与透视三点模型构建第38-39页
        2.4.2 基于垂直三面体的激光与摄像机标定第39-43页
    2.5 基于N点配准的三维激光与车载摄像机标定第43-45页
        2.5.1 对偶空间构建第43-44页
        2.5.2 对偶空间中的3DLRF与摄像机标定方法第44-45页
    2.6 车载摄像机与激光雷达标定实验验证第45-55页
        2.6.1 2DLRF与摄像机外参数标定第46-53页
        2.6.2 3DLRF与摄像机外参数标定第53-55页
    2.7 本章小结第55-56页
第3章 面向智能车的道路场景表征建模第56-79页
    3.1 引言第56-57页
    3.2 图像尺度下的道路场景表征第57-64页
        3.2.1 常用图像特征提取法概述第57-61页
        3.2.2 基于ORB算子的全局特征提取第61-63页
        3.2.3 基于ORB算子的局部特征提取第63-64页
        3.2.4 基于局部特征的词袋模型构建第64页
    3.3 三维尺度下的道路场景表征第64-70页
        3.3.1 基于前视双目视觉的三维重建第64-67页
        3.3.2 基于俯视单目视觉的三维重建第67-68页
        3.3.3 基于LIDAR数据的三维重建第68-70页
    3.4 位置尺度下的道路场景表征第70-72页
    3.5 实验验证第72-78页
        3.5.1 道路场景图像特征提取第72-73页
        3.5.2 道路场景三维重建第73-75页
        3.5.3 视觉轨迹精度验证第75-78页
    3.6 本章小结第78-79页
第4章 基于GPS与图像融合的智能车多尺度定位方法第79-99页
    4.1 引言第79-81页
        4.1.1 研究目标第79-80页
        4.1.2 符号解释第80-81页
    4.2 GPS尺度的智能车初始定位方法第81-82页
    4.3 图像特征尺度的智能车节点级定位方法第82-85页
        4.3.1 全局特征匹配第82页
        4.3.2 局部特征匹配第82-83页
        4.3.3 基于BoW的局部特征匹配第83-84页
        4.3.4 基于多特征空间的最近邻算法(KNN-MFS)第84-85页
    4.4 三维尺度的智能车位姿级定位方法第85-87页
    4.5 实验验证第87-98页
        4.5.1 不同路段实验结果第87-93页
        4.5.2 不同时段实验结果第93-94页
        4.5.3 不同天气实验结果第94-95页
        4.5.4 公开数据集下的实验结果第95-97页
        4.5.5 实验结果误差分析第97-98页
    4.6 本章小结第98-99页
第5章 GPS缺失下的智能车纯视觉定位方法第99-121页
    5.1 引言第99-100页
    5.2 基于拓扑结构的特征区域选择第100-102页
        5.2.1 特征区域划分法第100-101页
        5.2.2 基于拓扑结构的特征区域选择法第101-102页
    5.3 基于视觉运动模型的贝叶斯拓扑定位方法第102-105页
        5.3.1 视觉运动模型建立第102-103页
        5.3.2 贝叶斯拓扑定位方法第103-105页
    5.4 图像序列匹配法第105-106页
    5.5 实验验证第106-120页
        5.5.1 不同路段的实验验证第107-115页
        5.5.2 不同时段的实验验证第115-116页
        5.5.3 不同天气的实验验证第116-118页
        5.5.4 公开数据集实验验证第118-120页
    5.6 本章小结第120-121页
第6章 基于多视角匹配的智能车定位方法第121-133页
    6.1 引言第121-122页
    6.2 基于双链拓扑模型的初始定位方法第122-124页
    6.3 基于多视角特征匹配融合的节点级定位方法第124-126页
    6.4 基于平面单应性的位姿级定位方法第126-127页
    6.5 实验验证第127-132页
        6.5.1 不同路面类型的实验验证第128-130页
        6.5.2 不同季节下的实验验证第130-132页
    6.6 本章小结第132-133页
第7章 总结与展望第133-136页
    7.1 本文研究工作第133-134页
    7.2 创新点第134-135页
    7.3 研究展望第135-136页
参考文献第136-146页
致谢第146-147页
攻读博士学位期间发表的论文及参加科研情况第147-148页

论文共148页,点击 下载论文
上一篇:爆破振动荷载与地下水协同作用下土质路基边坡稳定性研究
下一篇:船舶柴油机磨损故障智能诊断的证据推理研究