摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第11-16页 |
1.1 研究工作的背景与意义 | 第11页 |
1.2 视频结构化的国内外研究历史与现状 | 第11-14页 |
1.2.1 视频浓缩的研究历史与现状 | 第11-12页 |
1.2.2 视频结构化方法研究历史与现状 | 第12-14页 |
1.3 本文的主要贡献与创新 | 第14-15页 |
1.4 本论文的结构安排 | 第15-16页 |
第二章 视频结构化基础 | 第16-32页 |
2.1 视频结构化概述 | 第16-18页 |
2.1.1 视频基本结构 | 第16-17页 |
2.1.2 视频结构语义化存储 | 第17-18页 |
2.2 特征提取 | 第18-27页 |
2.2.1 颜色特征 | 第18-21页 |
2.2.2 纹理特征 | 第21-23页 |
2.2.3 轮廓特征 | 第23-25页 |
2.2.4 SURF特征描述子 | 第25-27页 |
2.3 背景减除法 | 第27-30页 |
2.3.1 基于单高斯建模的背景减除法 | 第28页 |
2.3.2 基于混合高斯建模的背景减除法 | 第28-29页 |
2.3.3 基于ViBe背景建模的背景减除法 | 第29-30页 |
2.4 随机采样一致算法 | 第30-31页 |
2.5 本章小结 | 第31-32页 |
第三章 视频静态浓缩技术 | 第32-44页 |
3.1 视频浓缩技术 | 第32-33页 |
3.1.1 视频浓缩技术简介 | 第32页 |
3.1.2 视频动态帧提取浓缩概要 | 第32-33页 |
3.2 动态帧提取算法 | 第33-35页 |
3.2.1 基于帧差法的动态帧提取 | 第33-35页 |
3.2.2 基于邻域帧差的动态帧提取 | 第35页 |
3.3 基于帧差和ViBe背景建模的前景检测 | 第35-39页 |
3.3.1 常用的前景检测方法 | 第35-36页 |
3.3.2 基于帧差和ViBe建模融合的前景提取算法 | 第36-38页 |
3.3.3 基于图像掩膜的前景提取算法 | 第38-39页 |
3.4 实验数据分析 | 第39-43页 |
3.4.1 视频浓缩技术指标 | 第39页 |
3.4.2 视频数据分析 | 第39-43页 |
3.5 本章小结 | 第43-44页 |
第四章 关键帧提取与场景聚合算法 | 第44-64页 |
4.1 关键帧提取方法 | 第44-45页 |
4.1.1 镜头分析法 | 第44页 |
4.1.2 底层特征分析法 | 第44-45页 |
4.1.3 运动分析法 | 第45页 |
4.1.4 聚类分析法 | 第45页 |
4.2 基于分块的多阈值关键帧提取算法 | 第45-55页 |
4.2.1 颜色直方图 | 第45-48页 |
4.2.2 基于直方图比较的关键帧提取算法 | 第48-51页 |
4.2.3 基于虚拟线圈的关键帧检测 | 第51-53页 |
4.2.4 关键帧提取算法实验数据分析 | 第53-55页 |
4.3 基于SURF特征的随机采样一致算法 | 第55-58页 |
4.3.1 基于前景提取的SURF特征点检测 | 第55-56页 |
4.3.2 基于前景检测的SURF特征点匹配 | 第56-57页 |
4.3.3 基于SURF特征的随机采样一致算法(RANSAC) | 第57-58页 |
4.4 基于特征匹配的场景聚合算法 | 第58-63页 |
4.4.1 场景聚合概念 | 第58-59页 |
4.4.2 一般的场景聚合方法 | 第59-60页 |
4.4.3 基于多特征匹配的场景聚合算法 | 第60-63页 |
4.5 本章小结 | 第63-64页 |
第五章 结构化实现与系统设计 | 第64-68页 |
5.1 结构化流程 | 第64-65页 |
5.1.1 结构化步骤 | 第64-65页 |
5.1.2 系统设计 | 第65页 |
5.2 基于视频内容结构化分析的数据库设计 | 第65-67页 |
5.3 本章小结 | 第67-68页 |
第六章 总结与展望 | 第68-70页 |
6.1 全文总结 | 第68页 |
6.2 后续工作展望 | 第68-70页 |
致谢 | 第70-71页 |
参考文献 | 第71-75页 |