摘要 | 第4-6页 |
Abstract | 第6-7页 |
1 绪论 | 第13-21页 |
1.1 课题研究背景与意义 | 第13页 |
1.2 国内外研究现状 | 第13-18页 |
1.2.1 人脸检测 | 第13-16页 |
1.2.2 人脸目标识别 | 第16-18页 |
1.3 主要内容和技术难点 | 第18-20页 |
1.4 论文结构安排 | 第20-21页 |
2 视频人脸检测与识别相关技术介绍 | 第21-39页 |
2.1 光流法检测技术 | 第21-24页 |
2.1.1 光流场理论 | 第21-22页 |
2.1.2 几种常用光流估计算法 | 第22-24页 |
2.2 基于YOLO的人脸检测方法 | 第24-27页 |
2.2.1 YOLO在人脸目标检测中的优势 | 第24页 |
2.2.2 YOLO目标检测器原理 | 第24-27页 |
2.3 基于点分布模型的人脸对齐方法 | 第27-29页 |
2.4 Sphereface人脸识别方法 | 第29-33页 |
2.4.1 Sphereface算法优势 | 第29-30页 |
2.4.2 ResNet网络结构 | 第30-31页 |
2.4.3 A-Softmax Loss损失函数 | 第31-33页 |
2.5 视频关键帧提取技术 | 第33-35页 |
2.5.1 关键帧提取技术种类 | 第33-34页 |
2.5.2 基于颜色直方图的人脸序列关键帧提取 | 第34-35页 |
2.6 压缩感知理论 | 第35-39页 |
2.6.1 信号的稀疏表述 | 第37页 |
2.6.2 测量矩阵 | 第37-39页 |
3 基于Lucas-Kanade光流运动区域差异性的人脸活体检测方法 | 第39-48页 |
3.1 人脸活体检测REPLAY-ATTACK数据库分析 | 第40-41页 |
3.2 Lucas-Kanade算法提取光流矢量 | 第41-43页 |
3.3 光流运动区域差异性检测 | 第43-45页 |
3.4 实验结果分析 | 第45-47页 |
3.5 本章小结 | 第47-48页 |
4 基于关键帧提取的视频人脸检测定位改进方法 | 第48-63页 |
4.1 基于关键帧提取的视频人脸检测定位方法技术路线 | 第48-49页 |
4.2 结合压缩感知分割子镜头 | 第49-52页 |
4.2.1 从RGB到 HSV空间的转换 | 第49-50页 |
4.2.2 图像信息的稀疏表示 | 第50-51页 |
4.2.3 构建图像多尺度低维特征向量 | 第51页 |
4.2.4 在低维多尺度特征上分割子镜头 | 第51-52页 |
4.3 利用颜色直方图匹配算法提取关键帧 | 第52-56页 |
4.3.1 颜色空间量化 | 第52-53页 |
4.3.2 颜色直方图特征统计 | 第53-55页 |
4.3.3 关键帧提取 | 第55-56页 |
4.4 基于YOLO的人脸区域定位检测 | 第56-57页 |
4.4.1 YOLO模型设计 | 第56页 |
4.4.2 训练与测试 | 第56-57页 |
4.5 基于CLM人脸对齐处理 | 第57-58页 |
4.6 实验结果分析 | 第58-61页 |
4.7 本章小结 | 第61-63页 |
5 基于Sphereface的人脸识别算法 | 第63-68页 |
5.1 激活函数的选取 | 第63-64页 |
5.2 准备数据集 | 第64页 |
5.3 损失函数 | 第64页 |
5.4 训练过程 | 第64-65页 |
5.5 实验结果分析 | 第65-67页 |
5.6 本章小结 | 第67-68页 |
6 总结与展望 | 第68-70页 |
6.1 论文工作总结 | 第68-69页 |
6.2 研究工作展望 | 第69-70页 |
参考文献 | 第70-73页 |
致谢 | 第73-74页 |
个人简历、攻读硕士期间学术成果 | 第74页 |