基于双CCD的人眼视线追踪系统研究与设计
摘要 | 第3-4页 |
Abstract | 第4页 |
第1章 绪论 | 第7-16页 |
1.1 引言 | 第7-9页 |
1.2 视线追踪研究背景 | 第9-14页 |
1.2.1 视线跟踪技术的发展现状 | 第9-12页 |
1.2.2 视线追踪手段在人机交互中的应用 | 第12-13页 |
1.2.3 视线跟踪技术的关键问题 | 第13-14页 |
1.3 本文的主要工作 | 第14-16页 |
第2章 人脸区域分析与提取 | 第16-26页 |
2.1 人脸的检测方法 | 第16-17页 |
2.2 肤色模型原理 | 第17-18页 |
2.3 选取颜色空间 | 第18-22页 |
2.3.1 颜色空间 | 第19-22页 |
2.3.2 聚类性比较 | 第22页 |
2.4 肤色模型的建立 | 第22-24页 |
2.4.1 肤色模型确定 | 第22-23页 |
2.4.2 改进的肤色模型 | 第23-24页 |
2.5 定位人脸 | 第24-26页 |
第3章 特征点检测 | 第26-32页 |
3.1 特征点检测 | 第26-28页 |
3.1.1 梯度Hough变换算法 | 第26页 |
3.1.2 梯度的求取 | 第26-27页 |
3.1.3 y梯度Hough变换人眼检测算法 | 第27-28页 |
3.2 眼角嘴角检测 | 第28-32页 |
3.2.1 SUSAN的算子原理 | 第28-30页 |
3.2.2 角点检测详细算法 | 第30-32页 |
第4章 双目摄像机标定及测距 | 第32-43页 |
4.1 摄像机标定 | 第32-34页 |
4.1.1 几个重要的坐标系 | 第32-34页 |
4.1.2 线性标定方法 | 第34页 |
4.1.3 非线性的标定方法 | 第34页 |
4.1.4 两步法摄像机标定 | 第34页 |
4.2 双目摄像机测距 | 第34-39页 |
4.2.1 双目立体视觉测距原理 | 第35-36页 |
4.2.2 双目CCD系统误差分析 | 第36-39页 |
4.3 基于BP的双目视觉摄像机标定 | 第39-43页 |
4.3.1 BP神经网算法 | 第39-40页 |
4.3.2 双目视觉摄像机标定BP神经网络的建模 | 第40-41页 |
4.3.3 标定板角点的自动提取 | 第41-43页 |
第5章 视线方向的计算 | 第43-46页 |
5.1 人眼视线的仿真模型 | 第43页 |
5.2 人脸坐标系的建立 | 第43-44页 |
5.3 视线方向的计算 | 第44-46页 |
5.3.1 眼球中心坐标的计算 | 第44页 |
5.3.2 确定视线方向 | 第44-46页 |
第6章 视线追踪系统原型的实现 | 第46-52页 |
6.1 系统简介 | 第46-47页 |
6.2 双目CCD测距 | 第47-48页 |
6.3 眼球位置判别 | 第48-49页 |
6.4 人脸及特征点检测 | 第49页 |
6.5 视线跟踪 | 第49-50页 |
6.6 实验及结果 | 第50-52页 |
第7章 结论 | 第52-53页 |
致谢 | 第53-54页 |
参考文献 | 第54-56页 |