基于目标检测识别与坐标映射的溯源轨迹数据提取
摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第9-17页 |
1.1 引言 | 第9-10页 |
1.2 研究背景与研究意义 | 第10-11页 |
1.3 国内外研究现状 | 第11-14页 |
1.3.1 目标检测 | 第11-12页 |
1.3.2 目标识别 | 第12-14页 |
1.3.3 摄像机标定技术 | 第14页 |
1.4 研究目标与内容 | 第14-15页 |
1.4.1 目标检测算法优化 | 第14-15页 |
1.4.2 基于深度学习的目标识别 | 第15页 |
1.4.3 目标的坐标映射和运动轨迹获取 | 第15页 |
1.5 论文组织结构 | 第15-16页 |
1.6 论文的创新点 | 第16-17页 |
第二章 相关理论基础 | 第17-27页 |
2.1 目标检测 | 第17-19页 |
2.1.1 帧间差分法 | 第17-18页 |
2.1.2 光流法 | 第18页 |
2.1.3 背景差分法 | 第18-19页 |
2.1.4 目标检测方法比较 | 第19页 |
2.2 基于深度学习的目标识别 | 第19-24页 |
2.2.1 人工神经网络 | 第19-20页 |
2.2.2 卷积神经网络 | 第20-22页 |
2.2.3 区域CNN | 第22-24页 |
2.3 坐标映射 | 第24-26页 |
2.3.1 摄像机成像原理 | 第24-25页 |
2.3.2 摄像机标定 | 第25-26页 |
2.4 本章小结 | 第26-27页 |
第三章 溯源轨迹数据提取系统概述 | 第27-32页 |
3.1 系统总体架构 | 第27-28页 |
3.2 原始数据采集 | 第28-29页 |
3.3 信息提取模块概述 | 第29-30页 |
3.4 数据融合模块概述 | 第30页 |
3.5 本章小结 | 第30-32页 |
第四章 监控视频有效信息提取 | 第32-53页 |
4.1 有效帧提取 | 第32-38页 |
4.1.1 非参数化背景建模 | 第33-35页 |
4.1.2 运动目标检测 | 第35-38页 |
4.2 目标信息提取 | 第38-45页 |
4.2.1 数据准备 | 第38-41页 |
4.2.2 模型训练 | 第41-45页 |
4.2.3 信息提取 | 第45页 |
4.3 实验结果与分析 | 第45-52页 |
4.3.1 有效帧提取模块 | 第45-49页 |
4.3.2 目标信息提取模块 | 第49-52页 |
4.4 本章小结 | 第52-53页 |
第五章 基于坐标映射的数据融合 | 第53-71页 |
5.1 面向目标的坐标映射 | 第53-57页 |
5.1.1 坐标映射建模 | 第53-55页 |
5.1.2 坐标获取 | 第55-56页 |
5.1.3 线性回归 | 第56-57页 |
5.2 数据匹配融合 | 第57-62页 |
5.2.1 目标匹配 | 第57-62页 |
5.2.2 数据融合 | 第62页 |
5.3 实验结果与分析 | 第62-70页 |
5.3.1 坐标映射模块 | 第62-65页 |
5.3.2 数据匹配融合模块 | 第65-70页 |
5.4 本章小结 | 第70-71页 |
第六章 总结与展望 | 第71-73页 |
6.1 总结 | 第71页 |
6.2 展望 | 第71-73页 |
参考文献 | 第73-77页 |
攻读硕士期间发表的论文 | 第77-78页 |
致谢 | 第78-79页 |