摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第1章 绪论 | 第18-28页 |
1.1 研究背景 | 第18-20页 |
1.1.1 多媒体检索 | 第18-19页 |
1.1.2 多媒体理解(多媒体内容的描述与自动生成) | 第19-20页 |
1.2 国内外研究现状 | 第20-24页 |
1.3 本文研究内容与结构安排 | 第24-28页 |
第2章 基于高层语义的多媒体检索算法 | 第28-46页 |
2.1 背景介绍 | 第28-31页 |
2.2 相关工作 | 第31-33页 |
2.2.1 多模态嵌入式学习 | 第31-32页 |
2.2.2 用户点击数据在检索中的应用 | 第32-33页 |
2.3 基于用户点击数据的多模态子空间学习法 | 第33-38页 |
2.3.1 符号声明 | 第33页 |
2.3.2 多模态间的距离项 | 第33-34页 |
2.3.3 结构保持项 | 第34-35页 |
2.3.4 整体优化目标 | 第35页 |
2.3.5 优化策略 | 第35-36页 |
2.3.6 算法流程 | 第36-37页 |
2.3.7 复杂度分析 | 第37-38页 |
2.3.8 算法的扩展 | 第38页 |
2.4 实验评估 | 第38-45页 |
2.4.1 数据集 | 第38-39页 |
2.4.2 实验设置 | 第39-41页 |
2.4.3 优化分析 | 第41-42页 |
2.4.4 性能比较 | 第42-43页 |
2.4.5 语义子空间的维度的影响 | 第43-44页 |
2.4.6 最近邻数量的影响 | 第44页 |
2.4.7 折衷参数λ的作用 | 第44-45页 |
2.5 讨论与总结 | 第45-46页 |
第3章 基于隐式高层语义的视频描述生成算法 | 第46-62页 |
3.1 背景介绍 | 第46-48页 |
3.2 相关工作 | 第48-49页 |
3.3 视频描述的语法连贯性与语义一致性 | 第49-51页 |
3.3.1 问题建模 | 第50页 |
3.3.2 视觉语义嵌入式模块:语义一致性 | 第50-51页 |
3.3.3 基于序列学习的LSTM模块:语法连贯性 | 第51页 |
3.4 基于隐式高层语义的视频描述生成算法 | 第51-54页 |
3.4.1 长短时记忆模型 | 第52-53页 |
3.4.2 带有视觉语义嵌入式模块的长短时记忆模型 | 第53-54页 |
3.5 实验评估 | 第54-60页 |
3.5.1 实验设置 | 第54-55页 |
3.5.2 性能比较 | 第55-59页 |
3.5.3 实验分析 | 第59-60页 |
3.6 讨论与总结 | 第60-62页 |
第4章 基于显式高层语义的视频描述生成算法 | 第62-78页 |
4.1 背景介绍 | 第62-64页 |
4.2 相关工作 | 第64-65页 |
4.3 方法介绍 | 第65-70页 |
4.3.1 问题建模 | 第65-66页 |
4.3.2 视频内容中的高层语义 | 第66-67页 |
4.3.3 基于显式高层语义的视频描述生成算法 | 第67-70页 |
4.4 实验评估 | 第70-76页 |
4.4.1 数据集和实验设置 | 第71页 |
4.4.2 比较的方法 | 第71-72页 |
4.4.3 性能比较 | 第72-74页 |
4.4.4 实验分析 | 第74-76页 |
4.5 讨论与总结 | 第76-78页 |
第5章 基于高层语义的视频内容生成算法 | 第78-96页 |
5.1 背景介绍 | 第78-80页 |
5.2 相关工作 | 第80-81页 |
5.3 从描述语句自动生成视频内容 | 第81-88页 |
5.3.1 生成式对抗网络 | 第82页 |
5.3.2 基于高层语义的视频内容生成(TGANs-C) | 第82-87页 |
5.3.3 测试过程 | 第87-88页 |
5.4 实验评估 | 第88-94页 |
5.4.1 数据集 | 第88页 |
5.4.2 实验设置 | 第88-90页 |
5.4.3 比较的方法 | 第90页 |
5.4.4 优化分析 | 第90页 |
5.4.5 定性评估 | 第90-92页 |
5.4.6 人工评估 | 第92-93页 |
5.4.7 定量评估 | 第93-94页 |
5.5 讨论与总结 | 第94-96页 |
第6章 总结与展望 | 第96-100页 |
6.1 全文总结 | 第96-97页 |
6.2 未来展望 | 第97-100页 |
参考文献 | 第100-108页 |
致谢 | 第108-110页 |
在读期间发表的学术论文与取得的研究成果 | 第110-111页 |