摘要 | 第1-16页 |
ABSTRACT | 第16-19页 |
第1章 绪论 | 第19-35页 |
·研究背景及意义 | 第19-26页 |
·图像检索研究背景 | 第19-21页 |
·机器学习研究背景 | 第21-22页 |
·本文的研究内容和意义 | 第22-26页 |
·研究现状 | 第26-29页 |
·图像标注 | 第26-27页 |
·图像重排序 | 第27-28页 |
·物体检测 | 第28-29页 |
·主要技术挑战 | 第29-31页 |
·论文的主要工作和创新点 | 第31-33页 |
·本文的组织结构 | 第33-35页 |
第2章 图像检索与机器学习的相关预备知识 | 第35-56页 |
·图像底层特征 | 第35-43页 |
·MPEG-7视觉特征 | 第35-37页 |
·Tamura纹理 | 第37-38页 |
·SIFT特征描述子 | 第38-39页 |
·Color SIFT | 第39-40页 |
·HOG特征 | 第40-41页 |
·Bag of Visual Words(BoVW)模型 | 第41-43页 |
·空间金字塔匹配模型(Spatial Pyramid Matching,SPM) | 第43页 |
·支持向量机(Support Vector Machines,SVM) | 第43-51页 |
·最优分类面 | 第44-46页 |
·广义最优分类面 | 第46-47页 |
·高维空间的内积计算 | 第47页 |
·支持向量机 | 第47-48页 |
·核函数 | 第48-49页 |
·支持向量机的后验概率输出 | 第49-50页 |
·多类支持向量机 | 第50-51页 |
·增量学习 | 第51-52页 |
·主动学习 | 第52-55页 |
·本章小结 | 第55-56页 |
第3章 基于多类支持向量机的图像标注方法 | 第56-71页 |
·引言 | 第56-58页 |
·基于块的特征提取 | 第58-59页 |
·基于mRMR的特征选择 | 第59-60页 |
·标注词间的语义关系计算 | 第60页 |
·综合语义相关度和多类SVM的图像标注方法 | 第60-61页 |
·实验与分析 | 第61-69页 |
·数据集 | 第61-63页 |
·实验设置 | 第63-64页 |
·评测标准 | 第64页 |
·实验结果 | 第64-68页 |
·时间复杂度分析 | 第68-69页 |
·本章小节 | 第69-71页 |
第4章 一种新颖的WEB图像重排序方法 | 第71-88页 |
·引言 | 第71-73页 |
·潜在主题模型 | 第73-75页 |
·视觉距离(Visual Distance) | 第75页 |
·相互投票算法 | 第75-77页 |
·一种新颖的WEB图像重排序算法 | 第77-79页 |
·实验与分析 | 第79-86页 |
·实验数据集的获取 | 第80-81页 |
·实验细节 | 第81页 |
·评价标准 | 第81-82页 |
·参数选择 | 第82-84页 |
·实验结果 | 第84-86页 |
·本章小结 | 第86-88页 |
第5章 基于主动学习的物体检测训练数据获取方法 | 第88-105页 |
·引言 | 第88-91页 |
·Flickr中notes数据的特点 | 第91-94页 |
·数据集获取 | 第91-92页 |
·Notes数据预处理 | 第92-94页 |
·Notes数据上的主动学习 | 第94-99页 |
·通过文本挖掘获取种子图像集合 | 第94-96页 |
·根据视觉特征的note分类 | 第96页 |
·在线主动学习 | 第96-99页 |
·讨论 | 第99页 |
·实验与分析 | 第99-104页 |
·数据集 | 第100页 |
·实验设置和细节 | 第100-101页 |
·实验结果 | 第101-104页 |
·本章小节 | 第104-105页 |
第6章 总结与展望 | 第105-107页 |
·主要工作总结 | 第105-106页 |
·未来工作展望 | 第106-107页 |
参考文献 | 第107-117页 |
致谢 | 第117-118页 |
攻读学位期间发表的学术论文目录 | 第118-119页 |
攻读学位期间参与科研项目情况 | 第119-121页 |
学位论文评阅及答辩情况表 | 第121-123页 |
外文论文 | 第123-132页 |