基于多源大数据分析的图像检索技术研究
摘要 | 第5-6页 |
abstract | 第6-7页 |
第一章 绪论 | 第10-16页 |
1.1 课题研究背景及意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-13页 |
1.2.1 基于文本的图像检索技术 | 第11页 |
1.2.2 基于内容的图像检索技术 | 第11-12页 |
1.2.3 基于文本和内容的图像检索技术 | 第12-13页 |
1.3 本文主要工作及创新 | 第13-14页 |
1.4 本文组织结构 | 第14-16页 |
第二章 基础知识 | 第16-29页 |
2.1 图像检索系统 | 第16-18页 |
2.1.1 基于文本的图像检索系统TBIR | 第16页 |
2.1.2 基于内容的图像检索系统CBIR | 第16-17页 |
2.1.3 图像标注与图像检索 | 第17-18页 |
2.2 基于多源大数据融合图像标注相关理论和技术 | 第18-28页 |
2.2.1 多源数据融合的图像标注框架 | 第19页 |
2.2.2 多源信息相似度计算方法 | 第19-21页 |
2.2.3 卷积神经网络相关理论 | 第21-28页 |
2.3 本章小结 | 第28-29页 |
第三章 基于多源大数据融合的图像标注模型 | 第29-46页 |
3.1 引言 | 第29页 |
3.2 基于多源大数据融合的图像标注研究 | 第29-42页 |
3.2.1 数据预处理 | 第30-34页 |
3.2.2 图像相似度分析 | 第34-39页 |
3.2.3 图像用户相似度分析 | 第39-40页 |
3.2.4 图像总相似度计算 | 第40-41页 |
3.2.5 图像标注除噪 | 第41-42页 |
3.3 实验分析 | 第42-45页 |
3.3.1 实验数据 | 第42-43页 |
3.3.2 实验评估及参数设置 | 第43页 |
3.3.3 实验结果及分析 | 第43-45页 |
3.4 本章小结 | 第45-46页 |
第四章 基于深度学习的图像场景标注模型 | 第46-62页 |
4.1 上下文动作识别R*CNN | 第46-47页 |
4.2 基于卷积神经网络的场景识别模型 | 第47-57页 |
4.2.1 场景图像分析 | 第47-48页 |
4.2.2 基于R*CNN的改进 | 第48-50页 |
4.2.3 模型详细介绍 | 第50-53页 |
4.2.4 模型训练 | 第53-57页 |
4.3 实验分析 | 第57-61页 |
4.3.1 实验数据和评估标准 | 第57-58页 |
4.3.2 实验设置 | 第58页 |
4.3.3 实验结果及分析 | 第58-61页 |
4.4 本章小结 | 第61-62页 |
第五章 图像检索系统设计与实现 | 第62-71页 |
5.1 需求分析 | 第62-63页 |
5.2 系统设计 | 第63-65页 |
5.2.1 流程设计 | 第63-64页 |
5.2.2 系统功能结构 | 第64-65页 |
5.2.3 部署架构 | 第65页 |
5.3 系统关键模块实现 | 第65-68页 |
5.3.1 微博爬虫实现 | 第65-66页 |
5.3.2 图像数据存储 | 第66-67页 |
5.3.3 图像索引生成 | 第67-68页 |
5.4 系统展示 | 第68-70页 |
5.5 本章小结 | 第70-71页 |
第六章 总结与展望 | 第71-73页 |
6.1 总结 | 第71页 |
6.2 展望 | 第71-73页 |
致谢 | 第73-74页 |
参考文献 | 第74-78页 |
攻硕期间取得的研究成果 | 第78页 |