基于视觉定位的人机交互示教系统
摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第1章 绪论 | 第9-16页 |
1.1 研究背景与意义 | 第9页 |
1.2 研究现状 | 第9-14页 |
1.2.1 自然交互技术 | 第9-11页 |
1.2.2 双目立体视觉 | 第11-12页 |
1.2.3 运动目标检测与跟踪技术 | 第12-13页 |
1.2.4 人手分割 | 第13-14页 |
1.3 本文研究内容 | 第14-16页 |
第2章 摄像机测量基础模型 | 第16-31页 |
2.1 位姿参数的描述 | 第16-20页 |
2.1.1 齐次变换矩阵 | 第16-18页 |
2.1.2 欧拉角与旋转矩阵 | 第18-19页 |
2.1.3 四元数与旋转矩阵 | 第19-20页 |
2.2 摄像机成像模型 | 第20-24页 |
2.2.1 中心透视投影模型 | 第20-21页 |
2.2.2 摄像机成像关系 | 第21-23页 |
2.2.3 摄像机非线性模型 | 第23-24页 |
2.3 双目摄像机标定 | 第24-29页 |
2.3.1 摄像机线性参数 | 第26-27页 |
2.3.2 摄像机畸变参数 | 第27-28页 |
2.3.3 标定双目相机的相对位姿 | 第28-29页 |
2.4 双目立体校正 | 第29-30页 |
2.5 本章小结 | 第30-31页 |
第3章 基于标志物的目标运动测量 | 第31-42页 |
3.1 系统组成 | 第31-33页 |
3.2 双目视觉的三维重建 | 第33-34页 |
3.3 图像分割 | 第34-37页 |
3.3.1 基于阈值的分割 | 第34-35页 |
3.3.2 基于边缘的分割 | 第35页 |
3.3.3 基于区域特性分割 | 第35-36页 |
3.3.4 基于统计模式分类的分割 | 第36页 |
3.3.5 实验结果 | 第36-37页 |
3.4 轮廓提取 | 第37页 |
3.5 特征目标圆心提取 | 第37-39页 |
3.5.1 常用圆心提取方法 | 第37-38页 |
3.5.2 霍夫圆变换 | 第38-39页 |
3.6 位姿计算 | 第39-41页 |
3.7 本章小结 | 第41-42页 |
第4章 人手跟踪与检测算法 | 第42-59页 |
4.1 跟踪检测整体框架 | 第42-43页 |
4.2 基于特征点跟踪 | 第43-46页 |
4.2.1 金字塔光流法原理 | 第43-44页 |
4.2.2 跟踪角点检测 | 第44-45页 |
4.2.3 改进特征点跟踪算法 | 第45-46页 |
4.3 基于区域跟踪 | 第46-50页 |
4.3.1 Mean Shift算法 | 第46-48页 |
4.3.2 Mean Shift应用 | 第48-50页 |
4.4 跟踪器设计 | 第50-51页 |
4.5 级联检测器 | 第51-55页 |
4.5.1 方差检测器 | 第51-52页 |
4.5.2 贝叶斯分类器 | 第52-53页 |
4.5.3 2bit BP特征 | 第53页 |
4.5.4 随机森林原理 | 第53-54页 |
4.5.5 最近邻分类器 | 第54-55页 |
4.6 分类器在线学习 | 第55-56页 |
4.6.1 学习方法分析 | 第55-56页 |
4.7 检测器设计 | 第56-58页 |
4.8 本章小结 | 第58-59页 |
第5章 人手分割与定位 | 第59-67页 |
5.1 肤色分割 | 第59-61页 |
5.1.1 颜色空间模型 | 第59-61页 |
5.1.2 阈值分割 | 第61页 |
5.2 背景差分法 | 第61-64页 |
5.3 人手标志点检测及定位 | 第64-66页 |
5.3.1 数学形态学 | 第64页 |
5.3.2 轮廓提取 | 第64-65页 |
5.3.3 凸包算法 | 第65-66页 |
5.4 本章小结 | 第66-67页 |
总结 | 第67-68页 |
参考文献 | 第68-74页 |
攻读硕士学位期间发表的论文及其它成果 | 第74-76页 |
致谢 | 第76页 |