基于内容的视频结构分析
| 1 绪论 | 第1-15页 |
| ·概述 | 第10-13页 |
| ·基于内容的视频检索 | 第10-11页 |
| ·视频结构分析 | 第11-13页 |
| ·视频时域分割 | 第11-12页 |
| ·视频时域分割面临的问题 | 第12页 |
| ·关键帧提取及面临的困难 | 第12-13页 |
| ·本文目标和研究方法 | 第13页 |
| ·本文的贡献 | 第13-14页 |
| ·结构安排 | 第14-15页 |
| 2 视频时域分割 | 第15-29页 |
| ·引言 | 第15-17页 |
| ·视频数据的结构 | 第15页 |
| ·镜头的切换 | 第15-16页 |
| ·镜头内的运动 | 第16页 |
| ·镜头边界检测 | 第16-17页 |
| ·镜头边界检测问题分析 | 第17-19页 |
| ·视频时域分割方法 | 第19-27页 |
| ·特征提取和测量准则的建立 | 第19-23页 |
| ·模板匹配法 | 第19-20页 |
| ·基于块比较的方法 | 第20页 |
| ·基于运动补偿的方法 | 第20-21页 |
| ·基于直方图比较的方法 | 第21-22页 |
| ·基于直方图方差法 | 第22页 |
| ·基于边缘的方法 | 第22页 |
| ·压缩域的方法 | 第22-23页 |
| ·镜头边界的检测方法 | 第23-27页 |
| ·全局单一阈值法 | 第23-24页 |
| ·双阈值比较法 | 第24页 |
| ·自适应阈值法 | 第24页 |
| ·基于模型的方法 | 第24-25页 |
| ·基于惯性信息检测法 | 第25页 |
| ·基于统计特征的方法 | 第25-27页 |
| ·光流法 | 第27页 |
| ·本章小结 | 第27-29页 |
| 3 视频时域分割的设计 | 第29-45页 |
| ·设计目标 | 第29页 |
| ·总体处理框架 | 第29-30页 |
| ·特征提取和测量准则的建立 | 第30-34页 |
| ·可扩展颜色描述子(SCD) | 第31-33页 |
| ·帧间差异的度量 | 第33-34页 |
| ·突变镜头边界检测 | 第34-37页 |
| ·传统的突变检测算法分析 | 第34-35页 |
| ·检测机制 | 第35-36页 |
| ·算法设计 | 第36-37页 |
| ·渐变镜头边界检测 | 第37-43页 |
| ·检测渐变开始帧 | 第38-40页 |
| ·检测渐变尾帧 | 第40-42页 |
| ·嵌入附加信息 | 第42-43页 |
| ·附加先验信息 | 第43-44页 |
| ·本章小结 | 第44-45页 |
| 4 视频分割实验结果与分析 | 第45-51页 |
| ·衡量参数 | 第45-46页 |
| ·实验结果与分析 | 第46-50页 |
| ·本章小结 | 第50-51页 |
| 5 关键帧提取 | 第51-58页 |
| ·关键帧提取问题分析 | 第51页 |
| ·现有关键帧提取方法 | 第51-53页 |
| ·基于镜头的方法 | 第51页 |
| ·基于平均值法 | 第51-52页 |
| ·基于内容分析的方法 | 第52页 |
| ·基于运动分析的方法 | 第52页 |
| ·基于聚类的方法 | 第52-53页 |
| ·基于图论的方法 | 第53页 |
| ·基于MPEG-7运动描述子的关键帧提取 | 第53-56页 |
| ·选取运动描述子的理由 | 第53-54页 |
| ·MPEG-7运动描述子 | 第54-56页 |
| ·MPEG-7运动描述子介绍 | 第54页 |
| ·运动活动性描述子抽取 | 第54-56页 |
| ·实验结果与分析 | 第56-58页 |
| 6 总结与展望 | 第58-59页 |
| 致谢 | 第59-60页 |
| 参考文献 | 第60-63页 |
| 附录A | 第63-64页 |
| A.1 可扩展颜色描述子的抽取 | 第63-64页 |
| A.1.1 颜色空间的转换 | 第63-64页 |
| A.1.2 抽取方法 | 第64页 |