摘要 | 第3-5页 |
ABSTRACT | 第5-7页 |
第1章 绪论 | 第13-45页 |
1.1 研究背景介绍 | 第13-17页 |
1.1.1 问题背景 | 第13-16页 |
1.1.2 课题来源 | 第16-17页 |
1.2 研究任务与意义 | 第17-24页 |
1.3 国内外研究现状及分析 | 第24-39页 |
1.3.1 视频镜头边缘检测 | 第24-27页 |
1.3.2 视频关键帧提取 | 第27-29页 |
1.3.3 缩略图生成推荐 | 第29-34页 |
1.3.4 网络话题检测技术 | 第34-39页 |
1.4 本文的主要研究内容及贡献 | 第39-43页 |
1.5 本文的组织结构 | 第43-45页 |
第2章 视频DISSOLVE检测及关键帧提取研究 | 第45-64页 |
2.1 引言 | 第45-47页 |
2.2 基于图像质量评价的视频DISSOLVE检测 | 第47-56页 |
2.2.1 图像质量评价 | 第48-50页 |
2.2.2 候选Dissolve镜头粗检 | 第50-51页 |
2.2.3 长度规范化处理 | 第51-52页 |
2.2.4 基于SVM的Dissolve细检 | 第52-53页 |
2.2.5 实验结果 | 第53-56页 |
2.3 基于无监督合并聚类的视频关键帧提取 | 第56-62页 |
2.3.1 视频帧的视觉内容表示及相似度计算 | 第56-57页 |
2.3.2 无监督的视频帧聚类 | 第57-58页 |
2.3.3 关键帧选择 | 第58-59页 |
2.3.4 实验结果 | 第59-62页 |
2.4 本章小结 | 第62-64页 |
第3章 基于视觉内容感知的网络视频缩略图自动生成 | 第64-75页 |
3.1 引言 | 第64-66页 |
3.2 基于视觉内容感知的缩略图生成方法 | 第66-71页 |
3.2.1 方法框架 | 第66-67页 |
3.2.2 清晰视频关键帧的选取 | 第67-68页 |
3.2.3 视觉易获取性分析 | 第68-70页 |
3.2.4 视频内容代表性计算 | 第70-71页 |
3.2.5 视频缩略图自动生成 | 第71页 |
3.3 实验结果 | 第71-73页 |
3.4 本章小结 | 第73-75页 |
第4章 融合视觉内容分析与用户查询匹配的网络视频缩略图推荐 | 第75-97页 |
4.1 引言 | 第75-77页 |
4.2 系统框架 | 第77-79页 |
4.3 候选视频缩略图提取 | 第79-80页 |
4.4 图像易获取性分析 | 第80-83页 |
4.5 视频内容代表性计算 | 第83-85页 |
4.6 用户查询敏感匹配 | 第85-87页 |
4.7 自适应的缩略图推荐 | 第87-88页 |
4.8 实验结果 | 第88-94页 |
4.8.1 实验数据集和参数设定 | 第88-89页 |
4.8.2 易获取性评价 | 第89页 |
4.8.3 为视频拥有者生成的推荐结果评测 | 第89-92页 |
4.8.4 为视频浏览者生成的推荐结果评测 | 第92-94页 |
4.9 本章小结 | 第94-97页 |
第5章 融合视觉文本信息的跨模态网络话题检测 | 第97-120页 |
5.1 引言 | 第97-98页 |
5.2 方法框架 | 第98-99页 |
5.3 密集关键词组提取 | 第99-104页 |
5.3.1 关键词对间相似度计算 | 第100-102页 |
5.3.2 加权密集关键词组的粗检 | 第102-104页 |
5.4 关键词组更新优化及话题检测 | 第104-108页 |
5.4.1 文本连接 | 第105页 |
5.4.2 视觉连接 | 第105-107页 |
5.4.3 加权密集关键词组更新优化 | 第107-108页 |
5.4.4 网络话题检测 | 第108页 |
5.5 实验结果 | 第108-118页 |
5.5.1 实验数据集及评测标准 | 第108-109页 |
5.5.2 实验参数设置 | 第109-112页 |
5.5.3 话题检测结果比较 | 第112-114页 |
5.5.4 话题检测有效性分析 | 第114-118页 |
5.6 本章小结 | 第118-120页 |
结论 | 第120-123页 |
参考文献 | 第123-136页 |
攻读博士学位期间发表的论文及其它成果 | 第136-139页 |
致谢 | 第139-141页 |
个人简历 | 第141页 |