基于高分辨率遥感影像的城中村提取方法研究
论文创新点 | 第5-9页 |
摘要 | 第9-11页 |
ABSTRACT | 第11-12页 |
1 绪论 | 第13-23页 |
1.1 研究背景与意义 | 第13-15页 |
1.2 国内外研究现状与存在的问题 | 第15-20页 |
1.2.1 国内外研究现状 | 第15-19页 |
1.2.2 存在的问题 | 第19-20页 |
1.3 论文的研究内容与章节安排 | 第20-23页 |
1.3.1 研究内容 | 第20-21页 |
1.3.2 章节安排 | 第21-23页 |
2 高分辨率遥感影像场景提取方法概述 | 第23-45页 |
2.1 基于中层特征的场景提取方法 | 第23-32页 |
2.1.1 底层特征提取 | 第24-28页 |
2.1.2 视觉词袋模型 | 第28-30页 |
2.1.3 隐含Dirichlet分配模型 | 第30-32页 |
2.2 基于神经网络的场景提取方法 | 第32-39页 |
2.2.1 神经网络的基本概念 | 第32-35页 |
2.2.2 自编码神经网络 | 第35-37页 |
2.2.3 卷积神经网络 | 第37-39页 |
2.3 基于对象的场景提取方法 | 第39-42页 |
2.3.1 对象提取 | 第39-41页 |
2.3.2 对象关系的表示 | 第41-42页 |
2.4 本章小结 | 第42-45页 |
3 基于非监督深度特征学习的城中村提取方法研究 | 第45-65页 |
3.1 概述 | 第45-47页 |
3.2 受限玻尔兹曼机 | 第47-49页 |
3.3 非监督深度特征学习框架 | 第49-52页 |
3.3.1 非监督深度卷积神经网络 | 第50-51页 |
3.3.2 非监督深度全连接神经网络 | 第51-52页 |
3.4 实验与分析 | 第52-62页 |
3.4.1 研究区域和实验结果 | 第52-56页 |
3.4.2 参数分析 | 第56-59页 |
3.4.3 对比分析 | 第59-62页 |
3.5 本章小结 | 第62-65页 |
4 基于场景语义描述的城中村提取方法研究 | 第65-89页 |
4.1 基于指数的语义对象提取 | 第65-69页 |
4.2 面向对象的场景语义描述 | 第69-72页 |
4.2.1 属性直方图描述 | 第69-71页 |
4.2.2 景观描述 | 第71-72页 |
4.3 基于场景语义描述的城中村提取方法 | 第72-76页 |
4.4 实验与分析 | 第76-87页 |
4.4.1 实验数据与设置 | 第76-78页 |
4.4.2 实验结果 | 第78-80页 |
4.4.3 对比分析 | 第80-84页 |
4.4.4 参数分析 | 第84-87页 |
4.5 本章小结 | 第87-89页 |
5 基于景观特征迁移学习的城中村时空监测 | 第89-113页 |
5.1 研究区域与实验数据 | 第90-91页 |
5.1.1 深圳 | 第90-91页 |
5.1.2 武汉 | 第91页 |
5.2 城中村监测方法 | 第91-99页 |
5.2.1 迁移学习 | 第93-94页 |
5.2.2 景观指数的再选择 | 第94-95页 |
5.2.3 实验与分析 | 第95-99页 |
5.3 城中村时空变化分析 | 第99-112页 |
5.3.1 对比分析 | 第100-104页 |
5.3.2 景观分析 | 第104-109页 |
5.3.3 讨论 | 第109-112页 |
5.4 本章小结 | 第112-113页 |
6 总结与展望 | 第113-115页 |
6.1 本文总结 | 第113-114页 |
6.2 研究展望 | 第114-115页 |
参考文献 | 第115-127页 |
攻博期间发表的科研成果目录 | 第127-129页 |
致谢 | 第129页 |