致谢 | 第4-5页 |
摘要 | 第5-7页 |
Abstract | 第7-8页 |
1 引言 | 第15-18页 |
1.1 研究背景 | 第15页 |
1.2 研究目的及意义 | 第15-17页 |
1.3 本文的主要工作 | 第17-18页 |
2 相关内容综述 | 第18-41页 |
2.1 图像视觉内容提取 | 第18-24页 |
2.1.1 图像分割 | 第18-19页 |
2.1.2 超像素分割 | 第19-22页 |
2.1.3 显著目标或区域检测及提取 | 第22-24页 |
2.2 图像视觉内容表示 | 第24-32页 |
2.2.1 颜色特征 | 第25-27页 |
2.2.2 纹理特征 | 第27-30页 |
2.2.3 形状特征 | 第30-32页 |
2.3 图像自动标注及语义描述获取 | 第32-39页 |
2.3.1 基于建模的方法 | 第33-35页 |
2.3.2 基于图模型的方法 | 第35-36页 |
2.3.3 基于机器学习的方法 | 第36-39页 |
2.4 研究的问题 | 第39-40页 |
2.5 本章小结 | 第40-41页 |
3 基于SLIC0融合纹理信息的超像素分割 | 第41-59页 |
3.1 引言 | 第41-42页 |
3.2 问题提出 | 第42-44页 |
3.3 融合纹理信息的超像素分割方法—SLIC0-t | 第44-50页 |
3.3.1 SLIC0-t超像素分割算法流程 | 第44-45页 |
3.3.2 纹理特征提取 | 第45-48页 |
3.3.3 局部特征融合及超像素分割 | 第48-50页 |
3.4 实验结果及分析 | 第50-55页 |
3.4.1 直观视觉对比 | 第50-53页 |
3.4.2 量化评估对比 | 第53-55页 |
3.5 基于超像素描述及目标的显著性检测应用 | 第55-58页 |
3.5.1 超像素局部区域特征描述 | 第55-56页 |
3.5.2 基于超像素的局部区域对比度计算 | 第56-58页 |
3.6 本章小结 | 第58-59页 |
4 融合全局及局部区域信息的显著性检测模型 | 第59-78页 |
4.1 引言 | 第59页 |
4.2 问题提出 | 第59-63页 |
4.3 融合全局颜色、LTRSH及空间信息的显著性检测方法 | 第63-72页 |
4.3.1 LTRSH模型构建 | 第64-69页 |
4.3.2 基于LTRSH的区域对比度计算 | 第69-70页 |
4.3.3 全局显著性概率计算 | 第70-71页 |
4.3.4 融合全局显著性及局部区域对比度 | 第71页 |
4.3.5 基于全局像素级的显著性增强 | 第71-72页 |
4.4 实验结果与分析 | 第72-77页 |
4.4.1 数据集及量化比较准则 | 第72-73页 |
4.4.2 量化比较分析 | 第73-76页 |
4.4.3 直观比较分析 | 第76-77页 |
4.5 本章小结 | 第77-78页 |
5 基于局部区域融合显著性信息的图像语义标注方法 | 第78-102页 |
5.1 引言 | 第78-79页 |
5.2 问题提出 | 第79-84页 |
5.3 基于CNN以图像显著性为先验知识的双层图像语义标注模型 | 第84-93页 |
5.3.1 视觉特征编码 | 第85-89页 |
5.3.2 语义文本信息的Encoding | 第89-91页 |
5.3.3 图像视觉与语义文本的Order Embedding | 第91-93页 |
5.3.4 以显著性先验知识为先导的自我融合训练 | 第93页 |
5.4 实验结果与分析 | 第93-101页 |
5.4.1 实验平台与设置 | 第93-94页 |
5.4.2 实验数据集及训练参数设置 | 第94-95页 |
5.4.3 图像及语义文本双向检索验证量化结果 | 第95-100页 |
5.4.4 图像标注结果检索验证的匹配度对比 | 第100-101页 |
5.5 本章小结 | 第101-102页 |
6 结论 | 第102-107页 |
6.1 论文总结 | 第102-106页 |
6.2 工作展望 | 第106-107页 |
参考文献 | 第107-122页 |
作者简历及在学研究成果 | 第122-126页 |
学位论文数据集 | 第126页 |