第一章 绪论 | 第1-22页 |
1.1 智能交通系统概述 | 第13-15页 |
1.1.1 智能交通系统的概念 | 第13-14页 |
1.1.2 智能交通系统的研究内容 | 第14页 |
1.1.3 智能交通系统的研究领域 | 第14-15页 |
1.1.4 智能交通系统相关技术领域 | 第15页 |
1.2 视频监视技术概述 | 第15-16页 |
1.2.1 视频监视技术及其研究意义 | 第15-16页 |
1.2.2 视频监视技术的研究内容 | 第16页 |
1.3 视频监视技术在智能交通系统中的应用 | 第16-18页 |
1.4 研究背景与研究内容 | 第18-20页 |
1.4.1 研究背景 | 第18-19页 |
1.4.2 研究内容 | 第19-20页 |
1.5 论文的组织 | 第20-22页 |
第二章 视频处理基础 | 第22-34页 |
2.1 视频基础 | 第22-25页 |
2.1.1 视频图像的数学表达 | 第22页 |
2.1.2 视频图像的获取与数字化 | 第22-23页 |
2.1.3 视频图像的特点及研究内容 | 第23-25页 |
2.2 运动分析 | 第25-33页 |
2.2.1 基于帧差的运动分析 | 第25-27页 |
2.2.2 基于块的二维运动分析 | 第27-30页 |
2.2.3 基于光流场的二维运动分析 | 第30-32页 |
2.2.4 基于像素递归的二维运动分析 | 第32-33页 |
2.3 本章小结 | 第33-34页 |
第三章 运动目标检测技术研究 | 第34-60页 |
3.1 引言 | 第34-35页 |
3.2 基于背景差分的方法 | 第35-38页 |
3.2.1 背景差分方法原理 | 第35-36页 |
3.2.2 背景图像更新 | 第36-38页 |
3.3 基于背景描述模型的方法 | 第38-43页 |
3.3.1 方法原理 | 第38页 |
3.3.2 背景描述模型 | 第38-39页 |
3.3.3 单模态背景模型算法 | 第39页 |
3.3.4 多模态背景模型算法 | 第39-42页 |
3.3.5 实验结果 | 第42-43页 |
3.4 帧间差分方法 | 第43-48页 |
3.4.1 帧间差分法原理 | 第43-44页 |
3.4.2 基于块的帧间差分法 | 第44-48页 |
3.5 基于光流的方法 | 第48-52页 |
3.5.1 光流法的基本原理 | 第48-49页 |
3.5.2 基于帧间差和光流的运动目标检测和估计算法 | 第49-52页 |
3.6 基于颜色共生统计的复杂背景目标检测方法 | 第52-59页 |
3.6.1 引言 | 第52页 |
3.6.2 方法原理 | 第52-53页 |
3.6.3 背景变化识别 | 第53-55页 |
3.6.4 检测前景移动目标 | 第55-56页 |
3.6.5 更新背景模型 | 第56-58页 |
3.6.6 结论 | 第58-59页 |
3.7 本章小结 | 第59-60页 |
第四章 运动目标跟踪技术研究 | 第60-76页 |
4.1 概述 | 第60-62页 |
4.2 运动目标跟踪方法分析 | 第62-65页 |
4.2.1 基于特征的跟踪方法 | 第62-63页 |
4.2.2 基于3-D的跟踪方法 | 第63页 |
4.2.3 基于变形模型的跟踪方法 | 第63-65页 |
4.2.4 基于区域的跟踪方法 | 第65页 |
4.3 跟踪方法应用讨论 | 第65-66页 |
4.4 Kalman滤波预测方法 | 第66-68页 |
4.4.1 Kalman滤波器 | 第66-67页 |
4.4.2 基于Kalman滤波器的目标运动估计 | 第67-68页 |
4.5 改进的基于区域的多目标跟踪方法 | 第68-75页 |
4.5.1 基于区域的目标跟踪方法原理 | 第68-69页 |
4.5.2 运动目标区域的分割 | 第69-70页 |
4.5.3 跟踪控制表 | 第70页 |
4.5.4 匹配函数 | 第70-71页 |
4.5.5 跟踪算法 | 第71-74页 |
4.5.6 实验结果 | 第74-75页 |
4.5.7 小结 | 第75页 |
4.6 本章小结 | 第75-76页 |
第五章 运动目标分类技术研究 | 第76-83页 |
5.1 概述 | 第76-77页 |
5.2 支撑矢量机 | 第77-80页 |
5.2.1 支撑矢量机(SVM)概述 | 第77-78页 |
5.2.2 支撑矢量机算法 | 第78-80页 |
5.3 基于支撑矢量机的交通目标分类 | 第80-82页 |
5.3.1 特征选择与提取 | 第80-81页 |
5.3.2 支撑矢量机的训练 | 第81页 |
5.3.3 结果及结论 | 第81-82页 |
5.4 本章小结 | 第82-83页 |
第六章 视频数据存储与检索技术 | 第83-104页 |
6.1 视频数据模型 | 第83-89页 |
6.1.1 视频数据的特点 | 第83-84页 |
6.1.2 数据模型 | 第84-85页 |
6.1.3 视频数据模型 | 第85-86页 |
6.1.4 一种通用视频数据框架模型 | 第86-89页 |
6.2 视频分割 | 第89-93页 |
6.2.1 突变检测分割 | 第89-91页 |
6.2.2 渐变检测分割 | 第91-92页 |
6.2.3 讨论 | 第92-93页 |
6.3 关键帧提取 | 第93-94页 |
6.3.1 帧平均法和直方图平均法 | 第93页 |
6.3.2 基于帧间相关性的关键帧提取 | 第93-94页 |
6.3.3 一种快速关键帧提取方法 | 第94页 |
6.3.4 基于运动信息的方法 | 第94页 |
6.4 特征提取与索引 | 第94-97页 |
6.4.1 特征提取 | 第94-95页 |
6.4.2 建立索引 | 第95-97页 |
6.5 视频数据的检索与浏览 | 第97-98页 |
6.5.1 基于关键帧检索 | 第98页 |
6.5.2 基于运动的检索 | 第98页 |
6.5.3 视频浏览 | 第98页 |
6.6 交通视频信息管理系统的方案设计 | 第98-103页 |
6.6.1 交通视信息的特点 | 第99页 |
6.6.2 系统需求概述 | 第99页 |
6.6.3 系统结构设计 | 第99-100页 |
6.6.4 主要功能模块设计 | 第100-102页 |
6.6.5 用户界面设计 | 第102-103页 |
6.6.6 小结 | 第103页 |
6.7 本章小结 | 第103-104页 |
第七章 智能交通视频监视技术应用 | 第104-126页 |
7.1 交通控制可视化数据处理平台 | 第104-105页 |
7.2 交通流视频检测系统 | 第105-110页 |
7.2.1 系统概述 | 第105页 |
7.2.2 系统构成 | 第105-106页 |
7.2.3 系统工作原理 | 第106页 |
7.2.4 系统的设计 | 第106-108页 |
7.2.5 系统实现 | 第108-109页 |
7.2.6 提高系统实时性的措施 | 第109页 |
7.2.7 小结 | 第109-110页 |
7.3 交通违章视频检测管理系统 | 第110-115页 |
7.3.1 概述 | 第110页 |
7.3.2 系统结构 | 第110-111页 |
7.3.3 系统软件功能 | 第111-113页 |
7.3.4 系统的实现 | 第113-114页 |
7.3.5 系统的技术难点及解决方法 | 第114-115页 |
7.3.6 小结 | 第115页 |
7.4 车辆牌照自动识别系统 | 第115-125页 |
7.4.1 引言 | 第115页 |
7.4.2 总体结构 | 第115页 |
7.4.3 功能模块设计 | 第115-116页 |
7.4.4 车辆牌照定位提取 | 第116-118页 |
7.4.5 车辆牌照字符分割 | 第118-123页 |
7.4.6 车辆牌照字符识别 | 第123-125页 |
7.4.7 系统实现 | 第125页 |
7.4.8 小结 | 第125页 |
7.5 本章小结 | 第125-126页 |
第八章 总结与展望 | 第126-128页 |
8.1 本文主要工作总结 | 第126-127页 |
8.2 进一步工作展望 | 第127-128页 |
参考文献 | 第128-137页 |
附录 | 第137-138页 |
致谢 | 第138页 |