摘要 | 第6-8页 |
ABSTRACT | 第8-9页 |
第一章 绪论 | 第13-26页 |
1.1 研究背景及意义 | 第13-17页 |
1.2 视频标注研究现状 | 第17-23页 |
1.2.1 国外研究现状 | 第17-21页 |
1.2.2 国内研究现状 | 第21-22页 |
1.2.3 现有研究的不足 | 第22-23页 |
1.3 本文的创新点和组织结构 | 第23-26页 |
1.3.1 本文的创新点 | 第23-24页 |
1.3.2 本文的组织结构 | 第24-26页 |
第二章 基于层次语义的视频标注模型及相关理论 | 第26-41页 |
2.1 视频语义的描述与分类 | 第26-28页 |
2.1.1 视频语义的描述 | 第26-27页 |
2.1.2 视频语义的分类 | 第27-28页 |
2.2 基于不同语义层次的视频标注模型 | 第28-34页 |
2.2.1 基于帧图像层的视频语义标注 | 第29-32页 |
2.2.2 基于镜头语义层的视频语义标注 | 第32-33页 |
2.2.3 基于场景上下文的视频语义标注 | 第33-34页 |
2.3 视频标注中常用的的机器学习方法及分类方法 | 第34-40页 |
2.3.1 支持向量机SVM | 第34-36页 |
2.3.2 半监督机器学习方法 | 第36-40页 |
2.4 本章小结 | 第40-41页 |
第三章 结合视频多特征的镜头检测方法 | 第41-67页 |
3.1 视频基本结构 | 第41-42页 |
3.2 常见的镜头检测方法 | 第42-44页 |
3.2.1 像素差异法 | 第43页 |
3.2.2 基于直方图的算法 | 第43-44页 |
3.2.3 基于边缘的镜头检测算法 | 第44页 |
3.3 结合多特征的镜头检测方法 | 第44-55页 |
3.3.1 动态纹理实现镜头边缘检测的原理 | 第45-49页 |
3.3.2 帧图像SIFT特征提取 | 第49-53页 |
3.3.3 帧图像SIFT特征匹配 | 第53-54页 |
3.3.4 结合多特征的视频镜头检测算法步骤 | 第54-55页 |
3.4 实验结果与分析 | 第55-66页 |
3.4.1 SIFT特征以及动态纹理对镜头检测效果的影响 | 第55-57页 |
3.4.2 算法参数对镜头检测结果的影响 | 第57-60页 |
3.4.3 基于动态纹理的视频镜头检测方法与传统镜头检测算法的比较 | 第60-61页 |
3.4.4 结合多特征的视频镜头检测方法与其他相关算法的比较 | 第61-66页 |
3.5 本章小结 | 第66-67页 |
第四章 基于镜头事件的视频标注方法 | 第67-84页 |
4.1 基于镜头事件的视频标注框架 | 第67-70页 |
4.1.1 基于镜头事件的视频标注常用机器学习方法 | 第67-68页 |
4.1.2 基于半监督聚类的视频标注算法框架 | 第68-70页 |
4.2 视频特征表达 | 第70页 |
4.3 镜头特征提取 | 第70-75页 |
4.3.1 运动目标检测 | 第70-72页 |
4.3.2 Sift特征提取 | 第72页 |
4.3.3 颜色特征提取 | 第72-75页 |
4.4 半监督K-means聚类 | 第75-76页 |
4.5 结合局部密度的半监督K-means聚类 | 第76-78页 |
4.5.1 结合局部密度的半监督K-means聚类的算法思想 | 第76-77页 |
4.5.2 结合局部密度的半监督K-means聚类的算法步骤 | 第77-78页 |
4.6 基于SKM-CLD的微视频标注算法 | 第78-79页 |
4.7 实验结果与分析 | 第79-83页 |
4.7.1 实验数据与实验结果 | 第79-80页 |
4.7.2 SKM-CLD算法与相关聚类算法的比较 | 第80-82页 |
4.7.3 基于SKM-CLD的视频标注算法的实验效果 | 第82-83页 |
4.8 本章小结 | 第83-84页 |
第五章 基于场景上下文的视频标注方法 | 第84-102页 |
5.1 问题分析与描述 | 第84-89页 |
5.2 结合上下文特征的视频场景分类 | 第89-90页 |
5.2.1 算法流程 | 第89-90页 |
5.3 特征提取 | 第90-93页 |
5.3.1 关键帧提取 | 第90-91页 |
5.3.2 帧图像SIFT特征提取及特征表达 | 第91-92页 |
5.3.3 HSV颜色特征 | 第92-93页 |
5.4 SVM中的多核学习策略 | 第93-96页 |
5.4.1 SVM中的核函数选择 | 第93-94页 |
5.4.2 混合核SVM算法 | 第94-95页 |
5.4.3 多核学习形式 | 第95-96页 |
5.5 视觉词典的构建 | 第96-98页 |
5.5.1 视觉词典生成过程 | 第96-98页 |
5.6 实验结果与分析 | 第98-101页 |
5.6.1 数据集的选择 | 第98-99页 |
5.6.2 训练样本对各种视频分类的影响及实验结果分析 | 第99-101页 |
5.7 本章小结 | 第101-102页 |
第六章 总结与展望 | 第102-105页 |
6.1 总结 | 第102-103页 |
6.2 展望 | 第103-105页 |
参考文献 | 第105-114页 |
作者在攻读博士学位期间公开发表的论文 | 第114-115页 |
作者在攻读博士学位期间所做的项目 | 第115-116页 |
致谢 | 第116-117页 |