首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于视觉认知机理的图像语义内容获取研究

致谢第4-5页
摘要第5-7页
Abstract第7-8页
1 引言第15-18页
    1.1 研究背景第15页
    1.2 研究目的及意义第15-17页
    1.3 本文的主要工作第17-18页
2 相关内容综述第18-41页
    2.1 图像视觉内容提取第18-24页
        2.1.1 图像分割第18-19页
        2.1.2 超像素分割第19-22页
        2.1.3 显著目标或区域检测及提取第22-24页
    2.2 图像视觉内容表示第24-32页
        2.2.1 颜色特征第25-27页
        2.2.2 纹理特征第27-30页
        2.2.3 形状特征第30-32页
    2.3 图像自动标注及语义描述获取第32-39页
        2.3.1 基于建模的方法第33-35页
        2.3.2 基于图模型的方法第35-36页
        2.3.3 基于机器学习的方法第36-39页
    2.4 研究的问题第39-40页
    2.5 本章小结第40-41页
3 基于SLIC0融合纹理信息的超像素分割第41-59页
    3.1 引言第41-42页
    3.2 问题提出第42-44页
    3.3 融合纹理信息的超像素分割方法—SLIC0-t第44-50页
        3.3.1 SLIC0-t超像素分割算法流程第44-45页
        3.3.2 纹理特征提取第45-48页
        3.3.3 局部特征融合及超像素分割第48-50页
    3.4 实验结果及分析第50-55页
        3.4.1 直观视觉对比第50-53页
        3.4.2 量化评估对比第53-55页
    3.5 基于超像素描述及目标的显著性检测应用第55-58页
        3.5.1 超像素局部区域特征描述第55-56页
        3.5.2 基于超像素的局部区域对比度计算第56-58页
    3.6 本章小结第58-59页
4 融合全局及局部区域信息的显著性检测模型第59-78页
    4.1 引言第59页
    4.2 问题提出第59-63页
    4.3 融合全局颜色、LTRSH及空间信息的显著性检测方法第63-72页
        4.3.1 LTRSH模型构建第64-69页
        4.3.2 基于LTRSH的区域对比度计算第69-70页
        4.3.3 全局显著性概率计算第70-71页
        4.3.4 融合全局显著性及局部区域对比度第71页
        4.3.5 基于全局像素级的显著性增强第71-72页
    4.4 实验结果与分析第72-77页
        4.4.1 数据集及量化比较准则第72-73页
        4.4.2 量化比较分析第73-76页
        4.4.3 直观比较分析第76-77页
    4.5 本章小结第77-78页
5 基于局部区域融合显著性信息的图像语义标注方法第78-102页
    5.1 引言第78-79页
    5.2 问题提出第79-84页
    5.3 基于CNN以图像显著性为先验知识的双层图像语义标注模型第84-93页
        5.3.1 视觉特征编码第85-89页
        5.3.2 语义文本信息的Encoding第89-91页
        5.3.3 图像视觉与语义文本的Order Embedding第91-93页
        5.3.4 以显著性先验知识为先导的自我融合训练第93页
    5.4 实验结果与分析第93-101页
        5.4.1 实验平台与设置第93-94页
        5.4.2 实验数据集及训练参数设置第94-95页
        5.4.3 图像及语义文本双向检索验证量化结果第95-100页
        5.4.4 图像标注结果检索验证的匹配度对比第100-101页
    5.5 本章小结第101-102页
6 结论第102-107页
    6.1 论文总结第102-106页
    6.2 工作展望第106-107页
参考文献第107-122页
作者简历及在学研究成果第122-126页
学位论文数据集第126页

论文共126页,点击 下载论文
上一篇:基于粗糙集理论的动态数据挖掘关键技术研究
下一篇:创价教育思想及教师特征研究