基于双目视觉的嫦娥三号月球高程值计算
摘要 | 第4-5页 |
abstract | 第5-6页 |
第一章 绪论 | 第9-14页 |
1.1 课题的背景及意义 | 第9-11页 |
1.2 国内外研究现状 | 第11-13页 |
1.2.1 双目视觉三维重建研究现状 | 第11-12页 |
1.2.2 月球三维地形重建研究现状 | 第12页 |
1.2.3 研究现状总结 | 第12-13页 |
1.3 论文的研究内容 | 第13-14页 |
第二章 月球高程值计算原理 | 第14-35页 |
2.1 双目视觉基本原理 | 第14-26页 |
2.1.1 相机模型 | 第14-20页 |
2.1.2 相机标定 | 第20-21页 |
2.1.3 极线几何 | 第21-26页 |
2.2 立体匹配 | 第26-30页 |
2.2.1 局部立体匹配算法 | 第27-28页 |
2.2.2 全局立体匹配算法 | 第28页 |
2.2.3 立体匹配算法步骤及约束条件 | 第28-30页 |
2.3 BP神经网络算法 | 第30-34页 |
2.3.1 BP神经网络算法模型及优缺点 | 第30-32页 |
2.3.2 梯度下降算法 | 第32-34页 |
2.4 本章小结 | 第34-35页 |
第三章 基于多特征融合的立体匹配算法 | 第35-45页 |
3.1 立体匹配综述 | 第35页 |
3.2 本文的改进算法 | 第35-40页 |
3.2.1 融合梯度和颜色特征的立体匹配代价计算 | 第36-37页 |
3.2.2 基于纹理特征的立体匹配代价计算 | 第37-39页 |
3.2.3 视差精化 | 第39-40页 |
3.3 实验结果 | 第40-44页 |
3.4 本章小结 | 第44-45页 |
第四章 嫦娥三号月球图高程值学习 | 第45-57页 |
4.1 双目图像特征点匹配 | 第46-48页 |
4.1.1 SIFT特征提取 | 第46-47页 |
4.1.2 坐标算子与SIFT算子融合 | 第47-48页 |
4.2 特征数据预处理 | 第48-50页 |
4.3 高程值学习模型设计 | 第50-53页 |
4.3.1 网络结构的设计 | 第50-51页 |
4.3.2 重要参数的选取 | 第51-52页 |
4.3.3 激活函数的选取 | 第52-53页 |
4.4 实验结果与分析 | 第53-56页 |
4.5 本章小结 | 第56-57页 |
第五章 结论与展望 | 第57-59页 |
5.1 本文研究工作总结 | 第57页 |
5.2 未来的工作与展望 | 第57-59页 |
参考文献 | 第59-63页 |
发表论文和科研情况说明 | 第63-64页 |
致谢 | 第64页 |