摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第一章 绪论 | 第8-16页 |
1.1 研究背景 | 第8-9页 |
1.2 视频检测技术研究现状 | 第9-12页 |
1.2.1 运动目标的检测 | 第9-11页 |
1.2.2 运动目标的跟踪 | 第11-12页 |
1.2.3 存在问题 | 第12页 |
1.3 本文研究内容 | 第12-14页 |
1.3.1 动态场景的定义 | 第13页 |
1.3.2 基于累积光流的车道定位方法研究 | 第13页 |
1.3.3 基于仿射模型的全局运动补偿方法研究 | 第13页 |
1.3.4 动态场景下目标检测方法研究 | 第13-14页 |
1.3.5 动态场景下目标跟踪方法研究 | 第14页 |
1.4 实验环境构建 | 第14-15页 |
1.5 主要内容和章节安排 | 第15-16页 |
第二章 网络视频采集方法 | 第16-28页 |
2.1 网络视频的解码 | 第16-21页 |
2.1.1 基于OpenCV库的网络视频解码方法 | 第16-19页 |
2.1.2 解码器的选择 | 第19-20页 |
2.1.3 基于VLC解码的实现 | 第20-21页 |
2.2 基于DirectDraw的视频显示方法 | 第21-24页 |
2.2.1 DirectDraw简介 | 第22页 |
2.2.2 DirectDraw的架构分析 | 第22-23页 |
2.2.3 界面绘图的实现 | 第23-24页 |
2.3 视频OCX控件的封装 | 第24-26页 |
2.4 应用程序实现 | 第26-28页 |
第三章 变化场景下的车道定位 | 第28-44页 |
3.1 车道检测算法概述 | 第28-29页 |
3.2 基于光流累积的车道定位方法 | 第29-37页 |
3.2.1 光流与光流场 | 第29-35页 |
3.2.2 光流累积的方法 | 第35-37页 |
3.3 基于形态学的车道位置分割方法 | 第37-39页 |
3.3.1 图像分割方法概述 | 第37-38页 |
3.3.2 基于形态学的车道图像分割 | 第38-39页 |
3.4 场景运动与静止的判别 | 第39-42页 |
3.4.1 场景静止的判别方法 | 第40-41页 |
3.4.2 场景运动的判别方法 | 第41-42页 |
3.5 本章小结 | 第42-44页 |
第四章 动态场景下车辆目标的检测与跟踪 | 第44-60页 |
4.1 动态场景的处理 | 第44-49页 |
4.1.1 动态场景本身的运动特征 | 第45页 |
4.1.2 全局运动估计模型 | 第45-47页 |
4.1.3 仿射模型的参数估计方法 | 第47-49页 |
4.2 动态场景下车辆目标的检测 | 第49-52页 |
4.2.1 基于混合高斯模型的目标检测 | 第49-51页 |
4.2.2 目标的识别 | 第51-52页 |
4.3 动态场景下车辆目标的跟踪 | 第52-59页 |
4.3.1 Camshift算法 | 第53-55页 |
4.3.2 基于Kalman预测的Camshift跟踪算法 | 第55-58页 |
4.3.3 基于运动补偿的跟踪算法 | 第58-59页 |
4.4 本章小结 | 第59-60页 |
第五章 结论与展望 | 第60-62页 |
5.1 结论 | 第60页 |
5.2 展望 | 第60-62页 |
致谢 | 第62-64页 |
参考文献 | 第64-70页 |
科研经历与硕士期间发表论文情况 | 第70页 |
一、主要科研及项目经历 | 第70页 |
二、硕士期间发表论文情况 | 第70页 |