致谢 | 第5-7页 |
摘要 | 第7-9页 |
Abstract | 第9-10页 |
缩写、符号清单、术语表 | 第19-20页 |
1 引言 | 第20-26页 |
1.1 研究背景 | 第20-23页 |
1.2 论文结构 | 第23-26页 |
2 零样本学习技术综述 | 第26-66页 |
2.1 研究背景 | 第26-27页 |
2.2 问题定义 | 第27-30页 |
2.3 理论基础与基本模型 | 第30-34页 |
2.3.1 归纳式零样本学习 | 第31-33页 |
2.3.2 直推式零样本学习 | 第33-34页 |
2.4 关键技术 | 第34-53页 |
2.4.1 视觉语义特征提取 | 第34-36页 |
2.4.2 语义嵌入空间构建 | 第36-45页 |
2.4.3 视觉-语义关联映射学习 | 第45-51页 |
2.4.4 未知类标签预测 | 第51-53页 |
2.5 性能评估 | 第53-63页 |
2.5.1 评估数据集 | 第53-56页 |
2.5.2 性能评估指标 | 第56页 |
2.5.3 性能评估方案 | 第56-58页 |
2.5.4 当前零样本学习算法的性能分析 | 第58-63页 |
2.6 技术挑战 | 第63-64页 |
2.7 本章小结 | 第64-66页 |
3 基于关系知识迁移的归纳式零样本学习 | 第66-90页 |
3.1 引言 | 第66-68页 |
3.2 理论分析 | 第68-72页 |
3.2.1 类标签空间的几何结构 | 第68-70页 |
3.2.2 知识迁移机制 | 第70-72页 |
3.3 关系知识迁移(RKT)方法 | 第72-74页 |
3.3.1 基于稀疏编码的关系知识抽取 | 第73-74页 |
3.3.2 基于关系知识反向迁移的数据增补 | 第74页 |
3.3.3 RKT在零样本学习中的应用 | 第74页 |
3.4 误差界分析 | 第74-77页 |
3.5 生成式概率模型求解 | 第77-80页 |
3.6 实验及性能分析 | 第80-87页 |
3.6.1 实验数据集 | 第80-82页 |
3.6.2 实验细节 | 第82页 |
3.6.3 RKT在提高g_s泛化能力上的评估 | 第82-83页 |
3.6.4 g_u判决能力的评估 | 第83-85页 |
3.6.5 零样本学习性能比较 | 第85-87页 |
3.6.6 RKT参数评估 | 第87页 |
3.7 本章小结 | 第87-90页 |
4 基于流形对齐的直推式零样本学习 | 第90-124页 |
4.1 引言 | 第90-91页 |
4.2 零样本学习的语义流形 | 第91-97页 |
4.2.1 类级流形 | 第92-93页 |
4.2.2 实例级流形 | 第93-95页 |
4.2.3 语义流形对齐 | 第95-97页 |
4.3 视觉-语义映射函数的分析 | 第97-99页 |
4.4 语义嵌入空间的预检查 | 第99-100页 |
4.5 类间关系一致性 | 第100-101页 |
4.6 基于双视觉语义映射路径(DMaP)的流形对齐方法 | 第101-104页 |
4.6.1 训练阶段 | 第102-103页 |
4.6.2 测试阶段 | 第103-104页 |
4.7 实验及性能分析 | 第104-121页 |
4.7.1 实验配置 | 第104-105页 |
4.7.2 流形缺陷的验证 | 第105-107页 |
4.7.3 类间关系一致性的验证 | 第107-112页 |
4.7.4 类间关系一致性对零样本学习性能的影响 | 第112页 |
4.7.5 DMaP在传统零样本学习和泛化零样本学习上的性能评估 | 第112-121页 |
4.7.6 零样本学习性能比较 | 第121页 |
4.8 本章小结 | 第121-124页 |
5 总结与展望 | 第124-128页 |
5.1 本文工作总结 | 第124-125页 |
5.2 未来研究方向 | 第125-128页 |
参考文献 | 第128-142页 |
攻读博士学位期间主要研究成果 | 第142-144页 |
附录A 传统零样本学习在小规模数据集上的性能比较 | 第144-156页 |
A.1 AwA上的性能比较 | 第144-149页 |
A.2 CUB上的性能比较 | 第149-152页 |
A.3 SUN上的性能比较 | 第152-154页 |
A.4 aPY上的性能比较 | 第154-155页 |
A.5 Dogs和Flowers上的性能比较 | 第155-156页 |
附录B 泛化零样本学习在小规模数据集上的性能比较 | 第156-158页 |
附录C 大规模零样本学习性能比较 | 第158-160页 |