视听觉融合的交通场景智能感知技术研究
摘要 | 第4-5页 |
Abstract | 第5-6页 |
第一章 绪论 | 第13-21页 |
1.1 研究背景和意义 | 第13页 |
1.2 研究现状分析 | 第13-18页 |
1.3 论文研究内容概况和组织结构 | 第18-21页 |
1.3.1 论文研究内容概况 | 第18-19页 |
1.3.2 论文结构和章节安排 | 第19-21页 |
第二章 基于MLCC和DNN的声音识别方法 | 第21-41页 |
2.1 引言 | 第21页 |
2.2 声音数据集的构建 | 第21-22页 |
2.3 声音识别特征提取算法 | 第22-28页 |
2.3.1 声音信号分析 | 第22-23页 |
2.3.2 Mel频率倒谱系数 | 第23-26页 |
2.3.3 线性预测技术 | 第26-28页 |
2.4 分类器设计 | 第28-37页 |
2.4.1 神经网络模型 | 第28-33页 |
2.4.2 SVM算法 | 第33-35页 |
2.4.3 决策树及其组合模型 | 第35-37页 |
2.5 基于MLCC和DNN的声音识别技术 | 第37-38页 |
2.6 实验仿真与分析 | 第38-40页 |
2.6.1 实验内容 | 第38-39页 |
2.6.2 实验结果 | 第39-40页 |
2.7 本章小结 | 第40-41页 |
第三章 基于改进的MSRCR的夜间图像增强算法 | 第41-51页 |
3.1 引言 | 第41-42页 |
3.2 图像增强技术研究与实现 | 第42-48页 |
3.2.1 常用空间域滤波器 | 第42-44页 |
3.2.2 同态滤波器 | 第44页 |
3.2.3 Retinex理论 | 第44-46页 |
3.2.4 算法增强效果分析 | 第46-48页 |
3.3 基于MSRCR改进的夜间图像增强算法 | 第48-49页 |
3.4 实验仿真与分析 | 第49-50页 |
3.5 本章小结 | 第50-51页 |
第四章 基于深度学习的视觉特征提取 | 第51-69页 |
4.1 引言 | 第51-52页 |
4.2 深度学习研究 | 第52-56页 |
4.2.1 深度学习概况 | 第52页 |
4.2.2 卷积神经网络 | 第52-54页 |
4.2.3 优化技术 | 第54-56页 |
4.3 实验数据集的构建 | 第56-57页 |
4.4 传统视觉特征提取 | 第57-60页 |
4.4.1 SIFT特征提取 | 第57-58页 |
4.4.2 HOG特征提取 | 第58-59页 |
4.4.3 LBP特征提取 | 第59-60页 |
4.5 基于深度学习的视觉特征提取 | 第60-65页 |
4.5.1 网络结构解释 | 第60-63页 |
4.5.2 视觉特征提取方法 | 第63页 |
4.5.3 可视化实验 | 第63-65页 |
4.6 实验仿真与分析 | 第65-67页 |
4.6.1 实验内容 | 第65-66页 |
4.6.2 实验结果 | 第66-67页 |
4.7 本章小结 | 第67-69页 |
第五章 基于视听觉信息特征级融合的事件感知技术 | 第69-77页 |
5.1 引言 | 第69页 |
5.2 数据融合方式 | 第69-71页 |
5.3 视听觉融合方案 | 第71-73页 |
5.3.1 特征级融合方案 | 第72-73页 |
5.3.2 决策级融合方案 | 第73页 |
5.4 实验仿真与分析 | 第73-75页 |
5.4.1 实验内容 | 第73-74页 |
5.4.2 实验结果 | 第74-75页 |
5.5 本章小结 | 第75-77页 |
第六章 总结与展望 | 第77-79页 |
6.1 论文总结 | 第77页 |
6.2 论文展望 | 第77-79页 |
参考文献 | 第79-85页 |
硕士在读期间发表论文及科研情况 | 第85-87页 |
致谢 | 第87页 |