摘要 | 第3-5页 |
Abstract | 第5-6页 |
1 绪论 | 第13-23页 |
1.1 选题的背景及意义 | 第13-17页 |
1.1.1 计算机视觉在摄影测量与遥感中的意义 | 第13-14页 |
1.1.2 密集匹配技术的发展过程 | 第14-15页 |
1.1.3 密集匹配在遥感影像三维重构中的重要性 | 第15-16页 |
1.1.4 遥感影像密集匹配技术的难点 | 第16-17页 |
1.2 研究目标与研究内容 | 第17-20页 |
1.2.1 基于Opponent-SIFT和Segments-tree的密集匹配研究 | 第18页 |
1.2.2 基于Patch-Match算法的线阵卫星影像密集匹配研究 | 第18-19页 |
1.2.3 基于密集点的多视遥感影像三维重构技术研究 | 第19-20页 |
1.3 研究方案与论文结构 | 第20-23页 |
1.3.1 研究方案 | 第20-21页 |
1.3.2 论文结构 | 第21-23页 |
2 基于Oppoent-SIFT和Segments-tree的密集匹配研究 | 第23-62页 |
2.1 面阵影像预处理 | 第23-29页 |
2.1.1 面阵相机检校 | 第23-24页 |
2.1.2 核线影像校正 | 第24-29页 |
2.2 代价计算 | 第29-35页 |
2.2.1 常用的代价测度 | 第29-32页 |
2.2.2 Opponent-SIFT代价测度 | 第32页 |
2.2.3 改进的Census测度 | 第32-33页 |
2.2.4 多种代价测度组合策略 | 第33-35页 |
2.3 代价聚合 | 第35-49页 |
2.3.1 常用的全局法视差计算 | 第36-38页 |
2.3.2 常用的法代价聚合方法 | 第38-42页 |
2.3.3 基于改进的Segments-tree代价聚合 | 第42-49页 |
2.4 视差计算 | 第49-51页 |
2.5 视差精化 | 第51-59页 |
2.5.1 遮挡区域检测 | 第51-54页 |
2.5.2 误匹配区域优化 | 第54-55页 |
2.5.3 基于改进的RADAR技术的边缘对齐 | 第55-57页 |
2.5.4 纹理缺失区域处理 | 第57-59页 |
2.6 实验结果及评价 | 第59-61页 |
2.7 本章小结 | 第61-62页 |
3 基于DAISY算子和Patch-Match的线阵影像密集匹配研究 | 第62-86页 |
3.1 DAISY密集特征描述子 | 第62-65页 |
3.2 Patch-Match匹配算法 | 第65-67页 |
3.3 基于超像素的影像分割技术 | 第67-69页 |
3.4 基于DAISY算子和Patch-Match的线阵影像密集匹配算法 | 第69-76页 |
3.4.1 基于金字塔的多尺度匹配框架 | 第69-70页 |
3.4.2 基于DAISY算子的代价计算 | 第70-71页 |
3.4.3 基于超像素块的代价聚合 | 第71-72页 |
3.4.4 基于Patch-Match算法的标签改进策略 | 第72-76页 |
3.5 线阵影像密集匹配实验和结果评价 | 第76-85页 |
3.6 本章小结 | 第85-86页 |
4 基于密集匹配点的多视面阵影像重构方法研究 | 第86-100页 |
4.1 传统多视面阵影像三维重构 | 第86-87页 |
4.2 基于密集匹配点面阵多视遥感影像三维重构 | 第87-93页 |
4.3 实验及结果评价 | 第93-99页 |
4.4 本章小结 | 第99-100页 |
5 基于密集匹配点的多视线阵影像重构方法研究 | 第100-117页 |
5.1 线阵卫星的严格成像模型 | 第101-104页 |
5.2 改进的线阵卫星的空间前方交会 | 第104-105页 |
5.3 基于密集匹配点的线阵卫星三维重构方法 | 第105-107页 |
5.4 实验结果及评价 | 第107-116页 |
5.5 本章小结 | 第116-117页 |
6 总结和展望 | 第117-121页 |
6.1 结论 | 第117-118页 |
6.2 创新点 | 第118-119页 |
6.3 展望 | 第119-121页 |
参考文献 | 第121-127页 |
作者简历及攻读学位期间发表的学术论文与研究成果 | 第127-128页 |
致谢 | 第128-129页 |