摘要 | 第4-6页 |
ABSTRACT | 第6-7页 |
符号对照表 | 第14-15页 |
第一章 绪论 | 第15-23页 |
1.1 引言 | 第15-18页 |
1.1.1 研究课题 | 第15页 |
1.1.2 研究背景 | 第15-17页 |
1.1.3 研究意义 | 第17-18页 |
1.2 本文的主要研究工作与研究成果 | 第18-20页 |
1.3 本文结构 | 第20-23页 |
第二章 相关研究基础及关键技术 | 第23-29页 |
2.1 手绘草图识别 | 第23-24页 |
2.2 基于手绘草图的图像检索 | 第24-25页 |
2.3 其他相关研究基础 | 第25-29页 |
2.3.1 基于深度学习的哈希方法 | 第25页 |
2.3.2 零样本学习 | 第25-26页 |
2.3.3 视频检索 | 第26-27页 |
2.3.4 视频理解模型 | 第27-29页 |
第三章 大规模手绘草图的快速检索 | 第29-57页 |
3.1 引言 | 第29-32页 |
3.2 相关研究工作 | 第32-33页 |
3.2.1 当前手绘草图相关研究的瓶颈 | 第32-33页 |
3.2.2 手绘草图识别 | 第33页 |
3.3 面向大规模手绘草图的哈希模型 | 第33-40页 |
3.3.1 问题设定 | 第33-34页 |
3.3.2 双分支网络结构 | 第34-35页 |
3.3.3 Sketch Center Loss | 第35-38页 |
3.3.4 量化和编码 | 第38-39页 |
3.3.5 完整的损失函数 | 第39-40页 |
3.4 面向大规模手绘草图的零样本学习模型 | 第40-42页 |
3.4.1 问题设定 | 第40-41页 |
3.4.2 基于深度学习的嵌入模型 | 第41-42页 |
3.5 大规模边缘图数据集 | 第42-44页 |
3.5.1 图像收集 | 第42-43页 |
3.5.2 边缘图抽取 | 第43-44页 |
3.6 实验 | 第44-55页 |
3.6.1 哈希检索 | 第44-51页 |
3.6.2 零样本学习 | 第51-55页 |
3.7 结论 | 第55-57页 |
第四章 面向手绘草图检索的跨模态子空间建模 | 第57-77页 |
4.1 引言 | 第57-59页 |
4.2 跨模态子空间学习 | 第59-64页 |
4.2.1 典型相关分析 | 第60页 |
4.2.2 偏最小二乘法 | 第60-61页 |
4.2.3 广义多视角分析 | 第61-62页 |
4.2.4 普通判别特征抽取 | 第62页 |
4.2.5 三视角的典型相关分析 | 第62-63页 |
4.2.6 对偶特征空间学习 | 第63页 |
4.2.7 特征选择与子空间学习的联合式算法 | 第63-64页 |
4.3 实验结果与讨论 | 第64-76页 |
4.3.1 实验数据集 | 第64-65页 |
4.3.2 实验设置 | 第65页 |
4.3.3 基于QMUL Shoe数据集的实验结果 | 第65-71页 |
4.3.4 基于QMUL Chair数据集的实验结果 | 第71-76页 |
4.4 讨论 | 第76页 |
4.5 本章小结 | 第76-77页 |
第五章 基于手绘草图的细粒度视频检索 | 第77-105页 |
5.1 引言 | 第77-81页 |
5.2 相关工作 | 第81-82页 |
5.2.1 SBVR数据集 | 第81页 |
5.2.2 视频理解模型 | 第81-82页 |
5.3 细粒度的基于手绘草图的视频检索数据集 | 第82-87页 |
5.3.1 数据采集过程 | 第82-86页 |
5.3.2 数据标注过程 | 第86-87页 |
5.4 网络模型及训练策略 | 第87-93页 |
5.4.1 问题设定 | 第87页 |
5.4.2 MSMM-Net网络 | 第87-91页 |
5.4.3 MSMM-Net的弱监督学习方法 | 第91-93页 |
5.4.4 模型部署 | 第93页 |
5.5 实验 | 第93-103页 |
5.5.1 实验设定 | 第94-95页 |
5.5.2 实验结果及分析 | 第95-103页 |
5.6 本章小结 | 第103-105页 |
第六章 总结与展望 | 第105-109页 |
6.1 本文总结 | 第105-106页 |
6.2 工作展望 | 第106-109页 |
附录A 常用SBIR数据集汇总 | 第109-111页 |
参考文献 | 第111-123页 |
致谢 | 第123-127页 |
攻读学位期间发表的学术论文目录 | 第127页 |