摘要 | 第5-7页 |
Abstract | 第7-8页 |
目录 | 第9-11页 |
插图目录 | 第11-12页 |
表格目录 | 第12-13页 |
第一章 绪论 | 第13-17页 |
1.1 研究意义 | 第13-14页 |
1.2 研究内容 | 第14-15页 |
1.3 论文结构 | 第15-17页 |
第二章 研究现状 | 第17-28页 |
2.1 引言 | 第17-18页 |
2.2 基于内容的视频标注 | 第18-22页 |
2.2.1 视频特征提取 | 第18-20页 |
2.2.2 视频分类与标注 | 第20-22页 |
2.3 迁移学习 | 第22-28页 |
2.3.1 迁移学习方法分类 | 第22-26页 |
2.3.2 其他相关学习方法 | 第26-28页 |
第三章 基于单一关键词互联网图像知识迁移的视频标注 | 第28-45页 |
3.1 引言 | 第28-30页 |
3.2 相关工作 | 第30-31页 |
3.2.1 知识迁移 | 第30页 |
3.2.2 异构特征空间 | 第30页 |
3.2.3 弱语义属性 | 第30-31页 |
3.3 问题描述 | 第31页 |
3.4 异构空间的特征表示 | 第31-33页 |
3.4.1 单一域特征表示 | 第31-32页 |
3.4.2 异构特征表示 | 第32-33页 |
3.5 基于单源图像的视频标注框架 | 第33-35页 |
3.5.1 跨领域结构化模型 | 第33-34页 |
3.5.2 目标函数学习 | 第34-35页 |
3.6 实验 | 第35-44页 |
3.6.1 数据库 | 第35-36页 |
3.6.2 实验设置 | 第36-37页 |
3.6.3 结果分析 | 第37-44页 |
3.7 小结 | 第44-45页 |
第四章 基于多联想词分组互联网图像知识迁移的视频标注 | 第45-58页 |
4.1 引言 | 第45-47页 |
4.2 相关工作 | 第47-48页 |
4.3 问题描述 | 第48页 |
4.4 异构空间的特征表示 | 第48-50页 |
4.5 基于多联想词分组的视频标注框架 | 第50-52页 |
4.5.1 预分类器 | 第50-51页 |
4.5.2 联合组权重学习 | 第51-52页 |
4.6 实验 | 第52-57页 |
4.6.1 数据库 | 第52-53页 |
4.6.2 实验设置 | 第53-54页 |
4.6.3 实验结果 | 第54-57页 |
4.7 小结 | 第57-58页 |
第五章 基于多语义分组互联网图像知识迁移的视频标注 | 第58-75页 |
5.1 引言 | 第58-59页 |
5.2 相关工作 | 第59-60页 |
5.2.1 视频标注 | 第59页 |
5.2.2 基于知识迁移的视频标注 | 第59-60页 |
5.3 基于多语义分组的域适应框架 | 第60-65页 |
5.3.1 传统方法简介 | 第60-62页 |
5.3.2 源域中的概念特性组和事件特性组 | 第62-63页 |
5.3.3 基于图像组适应的视频标注框架 | 第63-65页 |
5.4 实验 | 第65-74页 |
5.4.1 数据库 | 第65-66页 |
5.4.2 实验设置 | 第66-68页 |
5.4.3 结果比较 | 第68-74页 |
5.5 小结 | 第74-75页 |
第六章 基于互联网图像的自动增量式视频标注 | 第75-86页 |
6.1 引言 | 第75-76页 |
6.2 相关工作 | 第76-77页 |
6.3 问题设置与定义 | 第77-78页 |
6.4 异构数据上的增量式迁移学习 | 第78-80页 |
6.4.1 目标函数学习 | 第78-80页 |
6.4.2 组权重推理 | 第80页 |
6.5 实验 | 第80-85页 |
6.5.1 数据库 | 第80-81页 |
6.5.2 实验设置 | 第81-82页 |
6.5.3 结果分析 | 第82-85页 |
6.6 小结 | 第85-86页 |
第七章 结论 | 第86-88页 |
7.1 工作总结 | 第86-87页 |
7.2 工作展望 | 第87-88页 |
参考文献 | 第88-101页 |
攻读学位期间发表论文与研究成果清单 | 第101-102页 |
致谢 | 第102-103页 |
作者简介 | 第103页 |