首页--工业技术论文--自动化技术、计算机技术论文--遥感技术论文--遥感图像的解译、识别与处理论文--图像处理方法论文

基于特征学习的高分辨率遥感图像场景分类研究

摘要第6-8页
ABSTRACT第8-10页
第1章 绪论第14-22页
    1.1 研究背景和意义第14-16页
    1.2 国内外研究现状第16-18页
    1.3 论文研究内容与章节安排第18-22页
        1.3.1 研究内容与创新第19-20页
        1.3.2 章节安排第20-22页
第2章 高分辨率遥感图像场景分类基本方法第22-33页
    2.1 基于特征编码的场景分类方法第22-25页
    2.2 非监督特征学习第25-27页
        2.2.1 非监督学习算法示例第26页
        2.2.2 特征映射方法示例第26-27页
    2.3 深度卷积神经网络第27-32页
        2.3.1 卷积神经网络基本结构第28-29页
        2.3.2 常用的深度卷积神经网络模型第29-32页
    2.4 本章小结第32-33页
第3章 基于非监督特征学习的遥感场景分类第33-60页
    3.1 面向图像特征提取的非监督特征学习框架第33-34页
    3.2 基于稀疏自编码的高分辨率遥感图像场景标注第34-40页
        3.2.1 稀疏自编码模型第35-36页
        3.2.2 基于稀疏自编码的图像局部特征提取第36-37页
        3.2.3 实验结果与分析第37-40页
    3.3 基于谱聚类非监督特征学习的场景分类第40-58页
        3.3.1 非监督特征学习基准框架第41-42页
        3.3.2 基于谱聚类非监督特征学习(UFL-SC)框架第42-48页
        3.3.3 基于UFL-SC的场景分类第48-50页
        3.3.4 实验结果与分析第50-58页
    3.4 本章小结第58-60页
第4章 基于非监督二值编码的遥感场景分类第60-82页
    4.1 概述第60-62页
    4.2 基于快速二值编码的场景分类第62-70页
        4.2.1 快速二值编码(FBC)第62-65页
        4.2.2 复杂度分析第65-66页
        4.2.3 基于FBC场景分类流程第66页
        4.2.4 滤波器学习第66-70页
    4.3 快速二值编码的扩展第70-74页
        4.3.1 空间共生核第71-72页
        4.3.2 基于显著图的特征编码第72-74页
    4.4 实验结果与分析第74-81页
        4.4.1 实验设置第74页
        4.4.2 实验结果第74-80页
        4.4.3 实验讨论第80-81页
    4.5 本章小结第81-82页
第5章 基于卷积神经网络的遥感场景分类第82-127页
    5.1 概述第82-84页
    5.2 利用卷积神经网络进行遥感场景分类基本策略第84-86页
        5.2.1 训练新的CNN模型第84-85页
        5.2.2 微调CNN模型参数第85页
        5.2.3 从CNN模型中直接提取特征第85-86页
    5.3 基于卷积神经网络迁移的场景分类第86-102页
        5.3.1 基于预训练CNN的场景特征表达第87-91页
        5.3.2 实验结果与分析第91-102页
    5.4 基于深度主题特征表达的场景分类第102-119页
        5.4.1 场景深度语义特征表达第103-107页
        5.4.2 实验结果与分析第107-119页
    5.5 基于深度稀疏特征表达的场景分类第119-125页
        5.5.1 深度稀疏表达第119-121页
        5.5.2 实验结果与分析第121-125页
    5.6 本章小结第125-127页
第6章 总结与展望第127-131页
    6.1 本文总结第127-128页
    6.2 研究展望第128-131页
参考文献第131-140页
附录第140-142页
致谢第142-143页

论文共143页,点击 下载论文
上一篇:基于非相干字典学习及稀疏表示的图像恢复和分类算法研究
下一篇:沿地线穿越越障的架空输电线路巡检机器人的研究