摘要 | 第3-4页 |
Abstract | 第4-5页 |
第1章 绪论 | 第8-12页 |
1.1 研究背景和意义 | 第8页 |
1.2 国内外研究现状 | 第8-10页 |
1.3 研究内容及组织结构 | 第10-12页 |
第2章 相关算法和模型分析 | 第12-26页 |
2.1 概述 | 第12页 |
2.2 传统的目标检测算法 | 第12-16页 |
2.2.1 图像特征 | 第12-14页 |
2.2.2 分类器 | 第14-16页 |
2.3 传统的目标跟踪算法 | 第16-20页 |
2.3.1 目标跟踪算法概述 | 第16页 |
2.3.2 主流跟踪算法性能分析 | 第16-20页 |
2.4 卷积神经网络 | 第20-24页 |
2.4.1 参数共享 | 第20-21页 |
2.4.2 池化 | 第21-22页 |
2.4.3 激活函数 | 第22页 |
2.4.4 可解释性 | 第22-24页 |
2.5 本章小结 | 第24-26页 |
第3章 基于SSD的图像物体检测改进算法 | 第26-44页 |
3.1 经典的卷积神经网络 | 第26-29页 |
3.1.1 VGGNet | 第26-27页 |
3.1.2 ResNet | 第27-28页 |
3.1.3 DenseNet | 第28-29页 |
3.2 深度学习物体检测算法 | 第29-33页 |
3.2.1 基于区域建议框的方法 | 第29-31页 |
3.2.2 基于回归的方法 | 第31-33页 |
3.3 基于SSD的改进算法 | 第33-40页 |
3.3.1 改进的残差网络SSD的特征提取 | 第33-35页 |
3.3.2 改进的稠密网络SSD的特征提取 | 第35-37页 |
3.3.3 改进的轻量级的稠密连接的检测框架 | 第37-40页 |
3.4 实验与分析 | 第40-43页 |
3.4.1 实验数据 | 第40-41页 |
3.4.2 评价指标 | 第41页 |
3.4.3 实验比较与分析 | 第41-43页 |
3.5 本章小结 | 第43-44页 |
第4章 视频中物体检测与跟踪框架 | 第44-58页 |
4.1 多模型的融合 | 第44-47页 |
4.1.1 检测的抑制 | 第45-46页 |
4.1.2 检测的增广 | 第46页 |
4.1.3 检测的重定位 | 第46-47页 |
4.2 目标窗口的合并 | 第47-48页 |
4.3 基于上下文的非主要类别抑制 | 第48页 |
4.4 基于角点跟踪的包围框迁移 | 第48-49页 |
4.5 基于TLD跟踪的包围框迁移 | 第49-51页 |
4.6 视频中物体检测算法框架 | 第51-52页 |
4.7 实验与分析 | 第52-56页 |
4.7.1 实验数据 | 第52页 |
4.7.2 评价指标 | 第52-53页 |
4.7.3 实验比较与分析 | 第53-56页 |
4.8 本章小结 | 第56-58页 |
第5章 基于VoxelNet的三维点云物体检测改进算法 | 第58-74页 |
5.1 经典的三维点云物体检测算法 | 第58-62页 |
5.1.1 激光雷达的点云数据分析 | 第58-59页 |
5.1.2 传统的三维点云物体检测算法 | 第59-62页 |
5.2 深度学习的三维点云物体检测算法 | 第62-66页 |
5.2.1 基于三维点云网格化的方法 | 第62-64页 |
5.2.2 基于三维点云特征学习的方法 | 第64-66页 |
5.3 基于VoxelNet的改进算法 | 第66-70页 |
5.3.1 改进VoxelNet的点云特征编码 | 第66-68页 |
5.3.2 改进VoxelNet的Anchor机制 | 第68-70页 |
5.4 实验与分析 | 第70-72页 |
5.4.1 实验数据 | 第70页 |
5.4.2 评价指标 | 第70页 |
5.4.3 实验比较与分析 | 第70-72页 |
5.5 本章小结 | 第72-74页 |
第6章 总结与展望 | 第74-76页 |
6.1 工作总结 | 第74-75页 |
6.2 工作展望 | 第75-76页 |
致谢 | 第76-78页 |
参考文献 | 第78-83页 |