摘要 | 第4-6页 |
Abstract | 第6-7页 |
1 绪论 | 第11-19页 |
1.1 研究背景和研究意义 | 第11-12页 |
1.2 国内外研究现状和发展趋势 | 第12-17页 |
1.3 本文的研究内容与章节安排 | 第17-19页 |
2 视频图像预处理方法 | 第19-37页 |
2.1 引言 | 第19页 |
2.2 图像的灰度化 | 第19-20页 |
2.3 YCbCr颜色空间及肤色模型 | 第20-23页 |
2.3.1 YCbCr颜色空间 | 第20-21页 |
2.3.2 YCbCr空间的肤色模型 | 第21-23页 |
2.4 图像的尺度变换 | 第23-28页 |
2.4.1 三种常用的图像尺度变换方法 | 第24-27页 |
2.4.2 实验与对比 | 第27-28页 |
2.5 边缘检测 | 第28-35页 |
2.5.1 几种常用的边缘检测算子 | 第29-33页 |
2.5.2 实验与对比 | 第33-35页 |
2.6 本章小节 | 第35-37页 |
3 人脸检测算法的改进 | 第37-50页 |
3.1 引言 | 第37页 |
3.2 Haar-like特征与AdaBoost算法 | 第37-43页 |
3.2.1 Haar-like特征 | 第37-39页 |
3.2.2 AdaBoost算法 | 第39-43页 |
3.3 AdaBoost人脸检测算法的改进 | 第43-49页 |
3.3.1 基于肤色的人脸检测 | 第43-44页 |
3.3.2 基于最大单目标的人脸检测 | 第44-45页 |
3.3.3 检测窗口的尺度自适应单目标人脸检测 | 第45-49页 |
3.4 本章小节 | 第49-50页 |
4 人体坐姿状态监测方法研究 | 第50-64页 |
4.1 引言 | 第50页 |
4.2 基于人脸肤色统计的坐姿监测方法 | 第50-55页 |
4.2.1 靠前靠后的判别 | 第50-53页 |
4.2.2 靠左靠右的判别 | 第53-55页 |
4.3 基于区域最佳匹配特征点的头部状态判别研究 | 第55-63页 |
4.3.1 SIFT特征和SURF特征 | 第55-57页 |
4.3.2 特征点检测区域的规划 | 第57-58页 |
4.3.3 基于三对最佳匹配SURF特征点的头部状态判别 | 第58-63页 |
4.4 本章小节 | 第63-64页 |
5 人体疲劳状态监测方法研究 | 第64-78页 |
5.1 引言 | 第64页 |
5.2 基于嘴巴活动区域融合边缘统计的打哈欠判别 | 第64-70页 |
5.2.1 嘴巴活动区域的规划 | 第64-66页 |
5.2.2 Prewitt与Canny算子的融合边缘统计及打哈欠判别 | 第66-70页 |
5.3 基于人眼与瞳孔检测及闭眼判别 | 第70-77页 |
5.3.1 人眼检测 | 第70-73页 |
5.3.2 霍夫变换与霍夫圆检测 | 第73-74页 |
5.3.3 基于人眼和霍夫圆的瞳孔检测及闭眼判别 | 第74-77页 |
5.4 本章小节 | 第77-78页 |
6 人体坐姿监测与面部疲劳监测系统的设计 | 第78-98页 |
6.1 引言 | 第78页 |
6.2 不良坐姿行为监测系统设计 | 第78-86页 |
6.2.1 算法设计 | 第79-82页 |
6.2.2 界面与演示 | 第82-84页 |
6.2.3 实验条件 | 第84-85页 |
6.2.4 实验结果与系统评价 | 第85-86页 |
6.3 辅助驾驶中头部状态与疲劳监测系统的设计 | 第86-96页 |
6.3.1 算法设计 | 第86-89页 |
6.3.2 实验条件 | 第89-90页 |
6.3.3 实验结果与系统评价 | 第90-96页 |
6.4 本章小节 | 第96-98页 |
结论 | 第98-100页 |
致谢 | 第100-101页 |
参考文献 | 第101-108页 |
攻读学位期间发表论文和承担的科研任务 | 第108页 |