基于场景分类的图像语义自动标注及检索的研究
摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第12-24页 |
1.1 研究背景和意义 | 第12-13页 |
1.2 图像语义标注研究现状 | 第13-17页 |
1.2.1 国外语义标注研究现状 | 第14-16页 |
1.2.2 国内语义标注研究现状 | 第16页 |
1.2.3 图像语义标注研究新进展 | 第16-17页 |
1.3 场景分类研究现状 | 第17-21页 |
1.3.1 底层特征的场景分类现状 | 第17页 |
1.3.2 中层语义的场景分类现状 | 第17-20页 |
1.3.3 图像场景分类的发展趋势 | 第20-21页 |
1.4 论文的主要工作及结构 | 第21-24页 |
第2章 图像标注相关技术 | 第24-34页 |
2.1 数字图像 | 第24页 |
2.1.1 视觉原理 | 第24页 |
2.1.2 图像概念 | 第24页 |
2.2 图像分割 | 第24-27页 |
2.2.1 图论的概念 | 第25页 |
2.2.2 图论的分割方法 | 第25-27页 |
2.3 图像特征的提取与匹配 | 第27-31页 |
2.3.1 图像特征提取 | 第27-29页 |
2.3.2 特征描述 | 第29-30页 |
2.3.3 图像语义匹配 | 第30-31页 |
2.4 语义标注模型 | 第31-32页 |
2.5 图像特征与标注词间的对应关系 | 第32页 |
2.6 本章小结 | 第32-34页 |
第3章 基于支持向量数据描述的图像标注方法 | 第34-40页 |
3.1 支持向量机 | 第34-36页 |
3.1.1 最优分类面 | 第34页 |
3.1.2 核函数 | 第34-36页 |
3.1.3 VC维理论 | 第36页 |
3.2 支持向量机方法 | 第36-37页 |
3.2.1 一对一方法 | 第36页 |
3.2.2 一对多方法 | 第36-37页 |
3.2.3 纠错输出法 | 第37页 |
3.3 基本原理 | 第37-39页 |
3.3.1 训练图像 | 第38页 |
3.3.2 语义标注 | 第38-39页 |
3.4 本章小结 | 第39-40页 |
第4章 基于场景分类的标注方法 | 第40-46页 |
4.1 场景语义 | 第40-41页 |
4.2 基于PLSA场景分类 | 第41-43页 |
4.2.1 PLSA原理 | 第41-42页 |
4.2.2 语义提取 | 第42-43页 |
4.3 改进的标注方法 | 第43-45页 |
4.3.1 训练分类器 | 第44-45页 |
4.3.2 图像语义标注 | 第45页 |
4.4 本章小节 | 第45-46页 |
第5章 实验结果与分析 | 第46-53页 |
5.1 语义标注及检索评价标准 | 第46-47页 |
5.2 Corel5K图像集 | 第47-48页 |
5.3 实验及分析 | 第48-52页 |
5.3.1 标注实验 | 第48-49页 |
5.3.2 检索性能 | 第49-50页 |
5.3.3 对比实验 | 第50-52页 |
5.4 本章小结 | 第52-53页 |
总结与展望 | 第53-55页 |
参考文献 | 第55-58页 |
致谢 | 第58页 |