基于高分辨率遥感影像的城中村提取方法研究
| 论文创新点 | 第5-9页 |
| 摘要 | 第9-11页 |
| ABSTRACT | 第11-12页 |
| 1 绪论 | 第13-23页 |
| 1.1 研究背景与意义 | 第13-15页 |
| 1.2 国内外研究现状与存在的问题 | 第15-20页 |
| 1.2.1 国内外研究现状 | 第15-19页 |
| 1.2.2 存在的问题 | 第19-20页 |
| 1.3 论文的研究内容与章节安排 | 第20-23页 |
| 1.3.1 研究内容 | 第20-21页 |
| 1.3.2 章节安排 | 第21-23页 |
| 2 高分辨率遥感影像场景提取方法概述 | 第23-45页 |
| 2.1 基于中层特征的场景提取方法 | 第23-32页 |
| 2.1.1 底层特征提取 | 第24-28页 |
| 2.1.2 视觉词袋模型 | 第28-30页 |
| 2.1.3 隐含Dirichlet分配模型 | 第30-32页 |
| 2.2 基于神经网络的场景提取方法 | 第32-39页 |
| 2.2.1 神经网络的基本概念 | 第32-35页 |
| 2.2.2 自编码神经网络 | 第35-37页 |
| 2.2.3 卷积神经网络 | 第37-39页 |
| 2.3 基于对象的场景提取方法 | 第39-42页 |
| 2.3.1 对象提取 | 第39-41页 |
| 2.3.2 对象关系的表示 | 第41-42页 |
| 2.4 本章小结 | 第42-45页 |
| 3 基于非监督深度特征学习的城中村提取方法研究 | 第45-65页 |
| 3.1 概述 | 第45-47页 |
| 3.2 受限玻尔兹曼机 | 第47-49页 |
| 3.3 非监督深度特征学习框架 | 第49-52页 |
| 3.3.1 非监督深度卷积神经网络 | 第50-51页 |
| 3.3.2 非监督深度全连接神经网络 | 第51-52页 |
| 3.4 实验与分析 | 第52-62页 |
| 3.4.1 研究区域和实验结果 | 第52-56页 |
| 3.4.2 参数分析 | 第56-59页 |
| 3.4.3 对比分析 | 第59-62页 |
| 3.5 本章小结 | 第62-65页 |
| 4 基于场景语义描述的城中村提取方法研究 | 第65-89页 |
| 4.1 基于指数的语义对象提取 | 第65-69页 |
| 4.2 面向对象的场景语义描述 | 第69-72页 |
| 4.2.1 属性直方图描述 | 第69-71页 |
| 4.2.2 景观描述 | 第71-72页 |
| 4.3 基于场景语义描述的城中村提取方法 | 第72-76页 |
| 4.4 实验与分析 | 第76-87页 |
| 4.4.1 实验数据与设置 | 第76-78页 |
| 4.4.2 实验结果 | 第78-80页 |
| 4.4.3 对比分析 | 第80-84页 |
| 4.4.4 参数分析 | 第84-87页 |
| 4.5 本章小结 | 第87-89页 |
| 5 基于景观特征迁移学习的城中村时空监测 | 第89-113页 |
| 5.1 研究区域与实验数据 | 第90-91页 |
| 5.1.1 深圳 | 第90-91页 |
| 5.1.2 武汉 | 第91页 |
| 5.2 城中村监测方法 | 第91-99页 |
| 5.2.1 迁移学习 | 第93-94页 |
| 5.2.2 景观指数的再选择 | 第94-95页 |
| 5.2.3 实验与分析 | 第95-99页 |
| 5.3 城中村时空变化分析 | 第99-112页 |
| 5.3.1 对比分析 | 第100-104页 |
| 5.3.2 景观分析 | 第104-109页 |
| 5.3.3 讨论 | 第109-112页 |
| 5.4 本章小结 | 第112-113页 |
| 6 总结与展望 | 第113-115页 |
| 6.1 本文总结 | 第113-114页 |
| 6.2 研究展望 | 第114-115页 |
| 参考文献 | 第115-127页 |
| 攻博期间发表的科研成果目录 | 第127-129页 |
| 致谢 | 第129页 |