多模深度学习目标检测及其应用
摘要 | 第5-6页 |
abstract | 第6-7页 |
第一章 绪论 | 第10-18页 |
1.1 研究工作的背景与意义 | 第10-11页 |
1.2 国内外研究历史与现状 | 第11-15页 |
1.2.1 基于雷达和视觉的多模研究现状 | 第12-13页 |
1.2.2 基于语音视频图像语料类的多模研究现状 | 第13-14页 |
1.2.3 多传感器融合在车辆识别方法研究现状 | 第14-15页 |
1.3 研究内容 | 第15-16页 |
1.4 章节安排 | 第16-18页 |
第二章 基于点云深度信息的多模车辆检测 | 第18-34页 |
2.1 引言 | 第18页 |
2.2 单模态车检测算法 | 第18-24页 |
2.2.1 基于特征算子与分类器的单模检测 | 第18-21页 |
2.2.2 基于深度神经网络的特征提取与检测 | 第21-24页 |
2.3 多模融合车检测 | 第24-28页 |
2.3.1 点云与图像的空间对应 | 第24-25页 |
2.3.2 深度信息梯度划分的雷达感兴趣区域 | 第25-28页 |
2.4 实验与分析 | 第28-33页 |
2.4.1 实验环境与实验参数 | 第28-29页 |
2.4.2 实验对比与分析 | 第29-33页 |
2.4.2.1 单模态实验 | 第29-30页 |
2.4.2.2 多模态实验 | 第30-33页 |
2.4.3 实验结论 | 第33页 |
2.5 本章小结 | 第33-34页 |
第三章 基于雷达俯瞰视角的多模车辆检测 | 第34-50页 |
3.1 引言 | 第34页 |
3.2 激光雷达俯瞰视角投影设计 | 第34-39页 |
3.2.1 激光雷达数据格式与处理 | 第34-36页 |
3.2.2 对于点云格式激光雷达数据俯瞰视角投影 | 第36-39页 |
3.3 冗余候选提名框消除 | 第39-43页 |
3.2.1 区域提名网络 | 第39-40页 |
3.2.2 对于点云格式激光雷达数据俯瞰视角投影 | 第40-43页 |
3.4 实验与分析 | 第43-48页 |
3.4.1 实验环境与实验参数 | 第43-45页 |
3.4.2 实验对比与分析 | 第45-48页 |
3.4.3 实验结论 | 第48页 |
3.5 本章小结 | 第48-50页 |
第四章 面向结构化道路的多模目标检测应用 | 第50-62页 |
4.1 引言 | 第50页 |
4.2 智能车感知系统 | 第50-53页 |
4.3 研究方案总体设计 | 第53-55页 |
4.3.1 多模态场景感知系统 | 第53-54页 |
4.3.2 感知系统架构 | 第54-55页 |
4.4 实验与分析 | 第55-61页 |
4.4.1 实验环境与参数设置 | 第55-58页 |
4.4.2 实验对比与分析 | 第58-61页 |
4.4.3 实验结论 | 第61页 |
4.5 本章小结 | 第61-62页 |
第五章 总结与展望 | 第62-64页 |
5.1 工作总结 | 第62-63页 |
5.2 工作展望 | 第63-64页 |
致谢 | 第64-65页 |
参考文献 | 第65-70页 |
攻读硕士学位期间取得的成果 | 第70页 |