视频检索中的场景摘要技术研究
| 摘要 | 第1-6页 |
| ABSTRACT | 第6-10页 |
| 第一章 绪论 | 第10-17页 |
| ·课题研究背景和意义 | 第10-12页 |
| ·研究背景 | 第10-11页 |
| ·研究意义 | 第11-12页 |
| ·国内外的研究现状 | 第12-14页 |
| ·国内现状 | 第12-13页 |
| ·国外现状 | 第13-14页 |
| ·论文的研究内容及主要工作 | 第14-15页 |
| ·论文的结构 | 第15-17页 |
| 第二章 视频摘要相关技术 | 第17-29页 |
| ·概述 | 第17-18页 |
| ·镜头边界检测 | 第18-22页 |
| ·镜头切变检测 | 第19-21页 |
| ·镜头渐变检测 | 第21-22页 |
| ·关键帧提取 | 第22-24页 |
| ·场景分割 | 第24-26页 |
| ·视频摘要 | 第26-29页 |
| ·视频摘要的生成过程 | 第26页 |
| ·视频摘要的表现形式 | 第26-29页 |
| 第三章 基于群体智能与k均值相结合的关键帧提取 | 第29-38页 |
| ·镜头边界检测 | 第29-30页 |
| ·基于群体智能的聚类算法 | 第30-31页 |
| ·k均值聚类算法 | 第31-32页 |
| ·群体智能与k均值相结合的关键帧提取 | 第32-34页 |
| ·视频帧特征提取 | 第32-33页 |
| ·群体智能与k均值相结合的关键帧提取算法 | 第33-34页 |
| ·实验结果与分析 | 第34-37页 |
| ·小结 | 第37-38页 |
| 第四章 基于镜头运动特征和时间信息的场景分割 | 第38-47页 |
| ·镜头特征提取 | 第38-40页 |
| ·镜头全局运动特征的提取 | 第38-39页 |
| ·镜头时间信息和视觉特征的提取 | 第39-40页 |
| ·镜头相似度度量 | 第40-41页 |
| ·场景分割 | 第41-43页 |
| ·实验结果与分析 | 第43-45页 |
| ·小结 | 第45-47页 |
| 第五章 基于视觉注意模型的场景摘要生成 | 第47-54页 |
| ·基于时空显著性的视觉注意度提取 | 第47-50页 |
| ·视觉注意模型 | 第47-48页 |
| ·运动显著度提取 | 第48-49页 |
| ·静态显著度提取 | 第49-50页 |
| ·场景摘要生成 | 第50-52页 |
| ·镜头的视觉注意度 | 第50-51页 |
| ·镜头的持续度 | 第51-52页 |
| ·场景摘要生成 | 第52页 |
| ·实验结果与分析 | 第52-53页 |
| ·小结 | 第53-54页 |
| 第六章 原型系统的设计与实现 | 第54-64页 |
| ·概述 | 第54-56页 |
| ·原型系统的主要框架 | 第56-57页 |
| ·核心类的设计与实现 | 第57-60页 |
| ·原型系统实现 | 第60-63页 |
| ·小结 | 第63-64页 |
| 第七章 总结与展望 | 第64-66页 |
| ·总结 | 第64-65页 |
| ·展望 | 第65-66页 |
| 参考文献 | 第66-71页 |
| 致谢 | 第71-72页 |
| 发表论文 | 第72页 |