双目立体视觉移动车辆三维重建系统研究
| 摘要 | 第1-6页 |
| Abstract | 第6-7页 |
| 致谢 | 第7-11页 |
| 第一章 绪论 | 第11-18页 |
| ·引言 | 第11页 |
| ·计算机视觉研究内容 | 第11-12页 |
| ·计算机视觉的发展概况 | 第12-15页 |
| ·Marr理论 | 第13页 |
| ·Marr视觉理论框架的不足与改进 | 第13-14页 |
| ·计算机视觉的发展 | 第14页 |
| ·计算机视觉研究的困难 | 第14-15页 |
| ·计算机视觉三维感知方法 | 第15-16页 |
| ·被动立体测定技术 | 第15页 |
| ·主动立体测定技术 | 第15-16页 |
| ·课题研究的目的和意义 | 第16页 |
| ·课题研究的内容 | 第16-18页 |
| 第二章 双目视觉系统视觉原理与三维重建体系结构 | 第18-21页 |
| ·双目立体视觉原理 | 第18页 |
| ·双目立体视觉三维重建体系结构 | 第18-21页 |
| ·图象获取 | 第19页 |
| ·摄像机标定 | 第19页 |
| ·图象预处理和特征提取 | 第19-20页 |
| ·立体匹配 | 第20页 |
| ·深度确定 | 第20-21页 |
| 第三章 摄像机标定 | 第21-32页 |
| ·引言 | 第21-22页 |
| ·参考坐标系介绍 | 第22-23页 |
| ·像素坐标系 | 第22页 |
| ·物体坐标系 | 第22页 |
| ·摄像机坐标系 | 第22页 |
| ·实际图象坐标系 | 第22-23页 |
| ·世界坐标系 | 第23页 |
| ·线性摄像机模型 | 第23-24页 |
| ·传统摄像机标定法 | 第24-27页 |
| ·线性摄像机模型标定 | 第24-26页 |
| ·透视变换法 | 第25页 |
| ·直接线性变换法 | 第25-26页 |
| ·非线性优化方法 | 第26-27页 |
| ·摄像机双目立体标定法 | 第27-29页 |
| ·求解摄像机内外部参数的初值 | 第27-28页 |
| ·非线性参数估计与双目立体摄像机位姿求解 | 第28-29页 |
| ·小结 | 第29页 |
| ·实验过程与结果分析 | 第29-32页 |
| 第四章 移动目标信息提取与图象预处理 | 第32-45页 |
| ·几种常用的移动目标检测方法的分析与比较 | 第32-34页 |
| ·背景差分法 | 第32-33页 |
| ·基于动态阈值的背景差分算法 | 第33页 |
| ·基于帧间差阈值方法 | 第33-34页 |
| ·基于光流场的方法 | 第34页 |
| ·图象的色彩系统 | 第34-37页 |
| ·RGB色彩系统 | 第35页 |
| ·CMY色彩系统 | 第35页 |
| ·YIQ色彩系统 | 第35页 |
| ·YUV色彩系统 | 第35-36页 |
| ·YCbCr色彩系统 | 第36页 |
| ·HIS系统 | 第36-37页 |
| ·改进的运动目标检测方法 | 第37-39页 |
| ·改进的 HIS模型 | 第37-38页 |
| ·运动目标图象 HIS帧间差值模型建立 | 第38-39页 |
| ·图象优化 | 第39-41页 |
| ·面积去除 | 第39页 |
| ·阴影部分去除 | 第39-41页 |
| ·形态学处理 | 第41页 |
| ·移动目标信息提取优化算法 | 第41-44页 |
| ·连通区域获取 | 第41-42页 |
| ·移动车辆区域特征定义 | 第42-43页 |
| ·移动车辆区域识别与边缘提取 | 第43页 |
| ·边缘检测 | 第43-44页 |
| ·算法流程小结 | 第44-45页 |
| 第五章 基于角点引导的边缘匹配与三维重建实现 | 第45-59页 |
| ·立体匹配前提 | 第45-46页 |
| ·匹配准则 | 第45-46页 |
| ·匹配中的影响因素 | 第46页 |
| ·匹配基元选择 | 第46-49页 |
| ·区域匹配 | 第46-47页 |
| ·特征匹配 | 第47-49页 |
| ·基于角点引导的边缘匹配算法 | 第49-53页 |
| ·角点匹配 | 第49-51页 |
| ·基于角点引导的边缘匹配 | 第51-53页 |
| ·插值算法 | 第53页 |
| ·三维重建实现 | 第53-55页 |
| ·算法流程小结 | 第55-56页 |
| ·实验验证与结果分析 | 第56-59页 |
| 第六章 总结与展望 | 第59-60页 |
| 参考文献 | 第60-62页 |