摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第11-19页 |
1.1 课题的研究背景与意义 | 第11-13页 |
1.2 视频场景分割的研究现状 | 第13-16页 |
1.2.1 基于底层特征的视频场景分割方法 | 第13-15页 |
1.2.2 基于内容语义特征的视频场景分割方法 | 第15-16页 |
1.3 论文的主要研究内容 | 第16-17页 |
1.4 章节安排 | 第17-19页 |
第二章 基于滑动窗的视频场景边界检测 | 第19-30页 |
2.1 引言 | 第19页 |
2.2 本章算法框架 | 第19-20页 |
2.3 基于局部运动差异的视频镜头切换检测 | 第20-23页 |
2.4 基于滑动窗的相似镜头聚类 | 第23-25页 |
2.5 视频场景边界检测 | 第25-27页 |
2.6 实验结果分析 | 第27-29页 |
2.7 本章小结 | 第29-30页 |
第三章 视频的内容复杂度测度方法 | 第30-48页 |
3.1 引言 | 第30页 |
3.2 本章算法框架 | 第30-31页 |
3.3 视频内容复杂度的准则构建 | 第31-33页 |
3.4 视频的内容信息提取 | 第33-40页 |
3.4.1 视频静态特征选择 | 第33-35页 |
3.4.2 基于速度熵和方向熵的运动特征构建 | 第35-40页 |
3.4.2.1 背景运动模型的估计 | 第36-38页 |
3.4.2.2 基于有效矢量场的运动特征构建 | 第38-40页 |
3.5 基于眼动信号的视觉集中度 | 第40-41页 |
3.6 联合视觉注意空间构建新的视频特征空间 | 第41-42页 |
3.7 基于视觉注意—视频内容的复杂度测度方法 | 第42-43页 |
3.8 实验及结果分析 | 第43-47页 |
3.8.1 眼动数据库及视频复杂度数据库的构建 | 第43-45页 |
3.8.2 实验结果分析 | 第45-47页 |
3.9 本章小结 | 第47-48页 |
第四章 视频的内容精彩度测度方法 | 第48-65页 |
4.1 引言 | 第48页 |
4.2 本章算法框架 | 第48-49页 |
4.3 视频内容精彩度的准则构建 | 第49-51页 |
4.4 镜头切换速率 | 第51-52页 |
4.5 镜头内运动特征提取 | 第52-57页 |
4.5.1 基于空间和时序变化量的全局运动特征提取 | 第52-55页 |
4.5.2 基于推拉和平移的摄像机运动特征提取 | 第55-57页 |
4.5.3 稠密光流轨迹 | 第57页 |
4.6 视频的图像特征提取 | 第57-60页 |
4.6.1 基于镜头聚焦的局部亮度特征提取 | 第57-60页 |
4.6.2 颜色冲击 | 第60页 |
4.7 视频的内容精彩度测度方法 | 第60-61页 |
4.8 实验及结果分析 | 第61-64页 |
4.8.1 视频精彩度数据库的构建 | 第61-62页 |
4.8.2 实验结果分析 | 第62-64页 |
4.9 本章小结 | 第64-65页 |
第五章 基于特定视频内容属性的视频场景分割 | 第65-83页 |
5.1 引言 | 第65页 |
5.2 本章算法框架 | 第65-66页 |
5.3 精彩视频片段分割 | 第66-78页 |
5.3.1 视频内容精彩度曲线的生成 | 第66-68页 |
5.3.2 基于视频内容精彩度曲线的精彩视频片段检测 | 第68-78页 |
5.3.2.1 波峰检测 | 第69-71页 |
5.3.2.2 波峰过滤 | 第71-73页 |
5.3.2.3 精彩视频片段的定位与分割 | 第73-77页 |
5.3.2.4 基于用户观看时长的精彩视频片段分割 | 第77-78页 |
5.4 简单视频片段分割 | 第78-79页 |
5.5 实验及结果分析 | 第79-82页 |
5.6 本章小结 | 第82-83页 |
第六章 总结与展望 | 第83-85页 |
6.1 总结 | 第83-84页 |
6.2 展望 | 第84-85页 |
致谢 | 第85-86页 |
参考文献 | 第86-93页 |
攻读硕士学位期间取得的成果 | 第93-94页 |