摘要 | 第4-5页 |
Abstract | 第5-6页 |
专用术语注释表 | 第9-10页 |
第一章 绪论 | 第10-14页 |
1.1 课题研究背景及意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-12页 |
1.3 本文主要研究内容及组织结构 | 第12-14页 |
1.3.1 本文主要研究内容 | 第12-13页 |
1.3.2 本文组织结构 | 第13-14页 |
第二章 视频浓缩技术基础 | 第14-25页 |
2.1 视频浓缩原理 | 第14-15页 |
2.2 背景建模技术 | 第15-19页 |
2.2.1 混合高斯背景建模 | 第16-17页 |
2.2.2 基于LBP的背景建模 | 第17-19页 |
2.3 目标跟踪技术 | 第19-22页 |
2.3.1 卡尔曼滤波跟踪 | 第19-20页 |
2.3.2 MeanShift跟踪算法 | 第20-22页 |
2.4 基于运动轨迹优化的浓缩展现 | 第22-24页 |
2.4.1 基于时空转移的轨迹优化方法 | 第23页 |
2.4.2 基于类似活动的轨迹优化方法 | 第23页 |
2.4.3 基于带状雕刻剪裁的轨迹优化方法 | 第23-24页 |
2.4.4 基于用户关注空间与注意力分析的轨迹优化方法 | 第24页 |
2.4.5 基于多视频融合的轨迹优化方法 | 第24页 |
2.5 本章小结 | 第24-25页 |
第三章 基于SILTP与单高斯相融合的前景检测 | 第25-40页 |
3.1 基于SILTP的纹理特征前景检测 | 第25-29页 |
3.1.1 尺度不变局部三值模式(SILTP) | 第25-27页 |
3.1.2 基于SILTP纹理直方图的背景建模 | 第27-29页 |
3.2 基于单高斯背景建模的前景检测 | 第29-31页 |
3.3 基于纹理特征与颜色特征相结合的前景检测 | 第31-32页 |
3.4 实验结果与分析 | 第32-39页 |
3.4.1 简单背景下的背景建模效果图比较 | 第32-33页 |
3.4.2 光线突变情况下的背景建模效果图比较 | 第33-35页 |
3.4.3 有运动阴影时的背景建模效果图比较 | 第35-36页 |
3.4.4 各背景建模算法的数据比较 | 第36-37页 |
3.4.5 混合高斯和SILTP的融合算法与本文算法的比较 | 第37-39页 |
3.5 本章小结 | 第39-40页 |
第四章 基于Camshift与SIFT线性融合的运动物体跟踪 | 第40-56页 |
4.1 连续自适应均值漂移算法(Camshift算法) | 第40-44页 |
4.1.1 RGB空间到HSV空间的转换 | 第40-41页 |
4.1.2 反向投影 | 第41-42页 |
4.1.3 Camshift算法流程 | 第42-44页 |
4.2 SIFT特征提取 | 第44-48页 |
4.2.1 在尺度空间中检测极值点 | 第45-46页 |
4.2.2 关键点定位 | 第46-47页 |
4.2.3 为关键点指定方向 | 第47页 |
4.2.4 生成关键点描述子 | 第47-48页 |
4.3 基于Camshift与SIFT线性融合的运动物体跟踪 | 第48-50页 |
4.3.1 SIFT特征匹配 | 第49-50页 |
4.3.2 特征点中心的重心转移计算 | 第50页 |
4.3.3 校准跟踪结果 | 第50页 |
4.3.4 融合Camshift和SIFT | 第50页 |
4.4 实验结果及评价 | 第50-55页 |
4.4.1 目标尺度发生变化时各算法的跟踪结果 | 第51-52页 |
4.4.2 目标旋转时各算法的跟踪结果 | 第52-54页 |
4.4.3 目标颜色与背景颜色相近时各算法的跟踪结果 | 第54-55页 |
4.5 本章小结 | 第55-56页 |
第五章 基于运动轨迹优化的浓缩视频 | 第56-67页 |
5.1 基于时间轴转移的轨迹组合 | 第57-60页 |
5.1.1 能量代价函数 | 第57-59页 |
5.1.2 能量最小化 | 第59-60页 |
5.2 浓缩视频的生成 | 第60-63页 |
5.2.1 背景视频的生成 | 第60-62页 |
5.2.2 背景图像与运动目标的拼接 | 第62-63页 |
5.3 实验结果与评价 | 第63-66页 |
5.4 本章小结 | 第66-67页 |
第六章 总结与展望 | 第67-69页 |
6.1 总结 | 第67-68页 |
6.2 展望 | 第68-69页 |
参考文献 | 第69-72页 |
附录 攻读硕士学位期间发表的论文 | 第72-73页 |
致谢 | 第73页 |