三维场景实时重建技术在遥操作机器人上的实现
摘要 | 第1-5页 |
Abstract | 第5-10页 |
1 绪论 | 第10-16页 |
·课题研究背景及意义 | 第10-11页 |
·国内外研究现状及发展趋势 | 第11-13页 |
·论文的研究内容和章节安排 | 第13-16页 |
·研究内容 | 第13-14页 |
·章节安排 | 第14-16页 |
2 摄像机标定 | 第16-34页 |
·视觉系统坐标系 | 第16-19页 |
·摄像机模型 | 第19-23页 |
·线性摄像机模型 | 第19-20页 |
·非线性摄像机模型 | 第20-23页 |
·传统摄像机标定方法 | 第23-27页 |
·直接线性变换法 | 第23-24页 |
·两步标定法 | 第24-26页 |
·平面标定法 | 第26-27页 |
·摄像机标定实验 | 第27-33页 |
·双目立体视觉系统平台搭建 | 第27-29页 |
·标定工具箱的使用 | 第29-31页 |
·标定结果分析 | 第31-33页 |
·本章小结 | 第33-34页 |
3 摄像机运动位姿估计 | 第34-57页 |
·特征点检测 | 第34-42页 |
·Harris角点检测算法 | 第35页 |
·SIFT特征点提取算法 | 第35-40页 |
·基于模板的特征点检测算法 | 第40-42页 |
·稀疏特征匹配 | 第42-46页 |
·极几何约束 | 第42-43页 |
·稀疏特征匹配方法 | 第43-44页 |
·匹配评价标准 | 第44-46页 |
·基于特征的摄像机运动位姿估计 | 第46-56页 |
·特征获取与跟踪 | 第46-48页 |
·运动位姿估计原理 | 第48-51页 |
·实验结果与分析 | 第51-56页 |
·本章小结 | 第56-57页 |
4 实时三维场景重建 | 第57-83页 |
·三维场景重建基本方法 | 第57-59页 |
·视差图 | 第57-59页 |
·空间点的三维坐标计算 | 第59页 |
·稠密匹配 | 第59-68页 |
·匹配基元选择 | 第60页 |
·约束条件 | 第60-62页 |
·能量函数 | 第62-63页 |
·常用稠密匹配算法 | 第63-68页 |
·多线程编程与GPU加速技术 | 第68-72页 |
·CPU与GPU的异同 | 第69页 |
·多线程编程技术 | 第69-70页 |
·GPU通用计算 | 第70-71页 |
·Cg语言 | 第71-72页 |
·基于贝叶斯模型的快速稠密匹配算法 | 第72-80页 |
·Delaunay三角剖分 | 第73页 |
·贝叶斯模型 | 第73-75页 |
·视差估计 | 第75-76页 |
·CPU-GPU混合并行计算方法 | 第76-77页 |
·实验结果与分析 | 第77-80页 |
·三维场景重建 | 第80-82页 |
·基于稠密匹配的三维场景重建算法 | 第80-81页 |
·实验结果与分析 | 第81-82页 |
·本章小结 | 第82-83页 |
5 遥操作机器人实时定位与三维场景重建系统 | 第83-90页 |
·遥操作机器人概述 | 第83-84页 |
·遥操作视觉系统 | 第84-85页 |
·实时定位与三维场景重建系统设计及实现 | 第85-89页 |
·系统需求分析 | 第85页 |
·系统硬件框架与软件设计 | 第85-86页 |
·系统运行结果与分析 | 第86-89页 |
·本章小结 | 第89-90页 |
结论 | 第90-92页 |
致谢 | 第92-93页 |
参考文献 | 第93-97页 |
攻读硕士学位论文期间发表的论文及科研成果 | 第97页 |