首页--交通运输论文--公路运输论文--汽车工程论文--汽车结构部件论文--电气设备及附件论文

基于Fast R-CNN的多传感器融合式行人检测

摘要第5-6页
Abstract第6-7页
第1章 绪论第10-19页
    1.1 研究背景及意义第10-12页
    1.2 国内外行人检测技术研究现状第12-19页
        1.2.1 传感器技术研究第12-14页
        1.2.2 目标检测分类第14-19页
第2章 基于Fast R-CNN的目标行人检测框架第19-28页
    2.1 R-CNN第19-21页
        2.1.1 R-CNN模型整体框架第20页
        2.1.2 R-CNN的基本原理第20-21页
    2.2 Fast R-CNN第21-24页
        2.2.1 Fast R-CNN基本原理第21-23页
        2.2.2 Fast R-CNN优点第23-24页
    2.3 Fast R-CNN网络结构设计第24-27页
        2.3.1 卷积核第25-26页
        2.3.2 网络层数第26-27页
        2.3.3 特征维数第27页
    2.4 本章小结第27-28页
第3章 数据集的制作与模型训练第28-40页
    3.1 数据集制作第28-36页
        3.1.1 图像预处理第30-34页
        3.1.2 目标检测性能评价方法第34-36页
    3.2 模型训练第36-39页
        3.2.1 caffemodel概述第37页
        3.2.2 设置超参数第37-39页
    3.3 本章小结第39-40页
第4章 毫米波雷达及视觉融合模型搭建第40-57页
    4.1 基于毫米波雷达信息的感兴趣区域确定第40-45页
        4.1.1 毫米波雷达测距性能第40-44页
        4.1.2 感兴趣区域第44-45页
    4.2 空间上的融合第45-53页
        4.2.1 毫米波雷达坐标系与三维世界坐标系转换第46-47页
        4.2.2 三维世界坐标系与摄像机坐标系转换第47-51页
        4.2.3 摄像机畸变原理第51-53页
    4.3 空间融合参数的求取第53-54页
        4.3.1 摄像机内外参数的求取第53页
        4.3.2 摄像机畸变参数的求取第53-54页
    4.4 时间上的融合第54-55页
    4.5 本章小结第55-57页
第5章 融合模型验证及行人检测实验第57-73页
    5.1 实验平台第57页
    5.2 算法实验验证第57-72页
        5.2.1 毫米波雷达与摄像机标定实验第57-63页
        5.2.2 数据融合实验第63-70页
        5.2.3 融合优势数据对比及分析第70-72页
    5.3 本章小结第72-73页
结论第73-75页
参考文献第75-80页
攻读硕士学位期间承担的科研任务与主要成果第80-81页
致谢第81页

论文共81页,点击 下载论文
上一篇:基于UCD的车载辅助驾驶设备创新设计
下一篇:基于车联网的车辆避撞算法及交通流跟驰模型研究