| 摘要 | 第8-10页 |
| abstract | 第10-11页 |
| 第1章 绪论 | 第15-21页 |
| 1.1 课题的提出及研究意义 | 第15-16页 |
| 1.2 国内外研究现状 | 第16-18页 |
| 1.2.1 国外研究现状 | 第16-17页 |
| 1.2.2 国内研究现状 | 第17-18页 |
| 1.3 双目立体视觉关键技术 | 第18-19页 |
| 1.4 本文研究主要内容 | 第19-20页 |
| 1.5 本章小结 | 第20-21页 |
| 第2章 摄像机标定 | 第21-35页 |
| 2.1 成像模型与坐标系建立 | 第21-26页 |
| 2.1.1 双目立体视觉坐标系 | 第21-23页 |
| 2.1.2 摄像机线性模型 | 第23-25页 |
| 2.1.3 摄像机非线性模型 | 第25-26页 |
| 2.2 摄像机标定 | 第26-31页 |
| 2.2.1 摄像机标定方法概述 | 第26-27页 |
| 2.2.2 Zhang摄像机标定方法 | 第27页 |
| 2.2.3 摄像机内外参数求解 | 第27-30页 |
| 2.2.4 摄像头畸变处理 | 第30-31页 |
| 2.2.5 双目立体标定 | 第31页 |
| 2.3 摄像机标定实验 | 第31-33页 |
| 2.4 本章小结 | 第33-35页 |
| 第3章 基于双目立体视觉的鸡腿菇匹配 | 第35-49页 |
| 3.1 双目立体匹配分类 | 第35-37页 |
| 3.1.1 全局立体匹配算法 | 第35页 |
| 3.1.2 局部立体匹配算法 | 第35页 |
| 3.1.3 基于区域匹配算法 | 第35-36页 |
| 3.1.4 基于特征的匹配算法 | 第36-37页 |
| 3.2 SURF(Speeded-UpRobustFeatures)特征提取及描述 | 第37-40页 |
| 3.2.1 构造Hessian矩阵 | 第37-38页 |
| 3.2.2 构建尺度空间 | 第38-39页 |
| 3.2.3 特征点定位 | 第39页 |
| 3.2.4 特征点主方向确定 | 第39-40页 |
| 3.2.5 构造特征点描述子 | 第40页 |
| 3.3 改进SURF匹配优化算法 | 第40-44页 |
| 3.3.1 Haar-like特征集 | 第41页 |
| 3.3.2 改进的SURF描述子 | 第41-42页 |
| 3.3.3 向量空间余弦相似度匹配 | 第42-43页 |
| 3.3.4 RANSAC容错 | 第43-44页 |
| 3.4 实验结果与分析 | 第44-48页 |
| 3.5 本章小结 | 第48-49页 |
| 第4章 鸡腿菇图像分割 | 第49-61页 |
| 4.1 最大类间方差法 | 第49-50页 |
| 4.2 GrabCut分割算法 | 第50-53页 |
| 4.2.1 颜色模型 | 第51-53页 |
| 4.2.2 能量函数最小化 | 第53页 |
| 4.3 改进SURF算法与Grabcut算法结合 | 第53-56页 |
| 4.3.1 单应性矩阵 | 第54页 |
| 4.3.2 确定目标区域 | 第54-56页 |
| 4.4 鸡腿菇图像边缘检测 | 第56-60页 |
| 4.4.1 Canny算子 | 第57页 |
| 4.4.2 Sobel算子 | 第57-58页 |
| 4.4.3 Laplacian算子 | 第58页 |
| 4.4.4 Prewitt算子 | 第58页 |
| 4.4.5 边缘检测算子分析 | 第58-60页 |
| 4.5 本章小结 | 第60-61页 |
| 第5章 双目立体视觉的三维重建与鸡腿菇定位 | 第61-71页 |
| 5.1 三维测量原理 | 第61-62页 |
| 5.2 一般情况下的三维重建 | 第62-65页 |
| 5.2.1 重建模型 | 第63页 |
| 5.2.2 重建方法 | 第63-65页 |
| 5.2.3 三维重建精度分析 | 第65页 |
| 5.3 定位实验与分析 | 第65-70页 |
| 5.4 本章小结 | 第70-71页 |
| 结论与展望 | 第71-73页 |
| 本文工作总结 | 第71页 |
| 展望 | 第71-73页 |
| 参考文献 | 第73-76页 |
| 致谢 | 第76-77页 |
| 附录A 攻读学位期间所撰写及录用的学术论文 | 第77页 |