基于机器视觉的大空间建筑火源定位方法研究
摘要 | 第1-4页 |
ABSTRACT | 第4-8页 |
1 绪论 | 第8-14页 |
·课题研究背景和意义 | 第8-10页 |
·国内外研究现状分析 | 第10-11页 |
·课题主要研究内容和章节安排 | 第11-14页 |
2 双目立体视觉原理 | 第14-28页 |
·双目立体视觉系统 | 第14页 |
·摄像机成像几何模型 | 第14-22页 |
·成像几何模型坐标系 | 第14-16页 |
·线性摄像机模型(针孔模型) | 第16-18页 |
·非线性摄像机模型 | 第18页 |
·传统智能消防炮火源空间定位原理 | 第18-20页 |
·基于平行双目立体视觉的火源空间定位原理 | 第20-22页 |
·摄像机标定 | 第22-23页 |
·双目立体视觉中的极线几何 | 第23-26页 |
·对极几何 | 第23-24页 |
·基础矩阵和本质矩阵 | 第24-26页 |
·本章小结 | 第26-28页 |
3 大空间建筑火源定位方法 | 第28-50页 |
·火源定位技术 | 第28-29页 |
·传统智能消防炮火源空间定位技术分析 | 第28页 |
·基于平行双目立体视觉的火源空间定位技术 | 第28-29页 |
·大空间建筑火源定位摄像机标定 | 第29-34页 |
·摄像机内部参数标定(张氏标定法) | 第29-32页 |
·双目立体标定(外部参数标定) | 第32-34页 |
·基础矩阵 F 估计 | 第34-40页 |
·F 矩阵问题概述 | 第34页 |
·传统基础矩阵估计方法 | 第34-39页 |
·基础矩阵估计新算法 | 第39-40页 |
·特征点提取与匹配 | 第40-47页 |
·特征点提取 | 第40-41页 |
·SURF 特征点提取 | 第41-44页 |
·SURF 特征点匹配 | 第44-46页 |
·火源定位中 SURF 算法改进 | 第46-47页 |
·三维信息重建 | 第47-49页 |
·大空间建筑火源定位(平行双目定位) | 第47-48页 |
·火源深度信息确定 | 第48-49页 |
·本章小结 | 第49-50页 |
4 火源定位实验结果及分析 | 第50-60页 |
·摄像机内部参数标定实验结果与分析 | 第50-52页 |
·基础矩阵估计实验结果与分析 | 第52-54页 |
·SURF 特征点提取和匹配 | 第54-56页 |
·SURF 特征点提取实验结果 | 第54页 |
·SURF 特征点匹配实验结果 | 第54-56页 |
·结果分析 | 第56页 |
·火源三维深度计算 | 第56-57页 |
·实验结果 | 第56-57页 |
·结果分析 | 第57页 |
·本章小结 | 第57-60页 |
5 总结与展望 | 第60-62页 |
·总结 | 第60页 |
·展望 | 第60-62页 |
致谢 | 第62-64页 |
参考文献 | 第64-68页 |
研究成果 | 第68页 |