| 摘要 | 第4-6页 |
| Abstract | 第6-7页 |
| 1 绪论 | 第13-21页 |
| 1.1 课题研究背景与意义 | 第13页 |
| 1.2 国内外研究现状 | 第13-18页 |
| 1.2.1 人脸检测 | 第13-16页 |
| 1.2.2 人脸目标识别 | 第16-18页 |
| 1.3 主要内容和技术难点 | 第18-20页 |
| 1.4 论文结构安排 | 第20-21页 |
| 2 视频人脸检测与识别相关技术介绍 | 第21-39页 |
| 2.1 光流法检测技术 | 第21-24页 |
| 2.1.1 光流场理论 | 第21-22页 |
| 2.1.2 几种常用光流估计算法 | 第22-24页 |
| 2.2 基于YOLO的人脸检测方法 | 第24-27页 |
| 2.2.1 YOLO在人脸目标检测中的优势 | 第24页 |
| 2.2.2 YOLO目标检测器原理 | 第24-27页 |
| 2.3 基于点分布模型的人脸对齐方法 | 第27-29页 |
| 2.4 Sphereface人脸识别方法 | 第29-33页 |
| 2.4.1 Sphereface算法优势 | 第29-30页 |
| 2.4.2 ResNet网络结构 | 第30-31页 |
| 2.4.3 A-Softmax Loss损失函数 | 第31-33页 |
| 2.5 视频关键帧提取技术 | 第33-35页 |
| 2.5.1 关键帧提取技术种类 | 第33-34页 |
| 2.5.2 基于颜色直方图的人脸序列关键帧提取 | 第34-35页 |
| 2.6 压缩感知理论 | 第35-39页 |
| 2.6.1 信号的稀疏表述 | 第37页 |
| 2.6.2 测量矩阵 | 第37-39页 |
| 3 基于Lucas-Kanade光流运动区域差异性的人脸活体检测方法 | 第39-48页 |
| 3.1 人脸活体检测REPLAY-ATTACK数据库分析 | 第40-41页 |
| 3.2 Lucas-Kanade算法提取光流矢量 | 第41-43页 |
| 3.3 光流运动区域差异性检测 | 第43-45页 |
| 3.4 实验结果分析 | 第45-47页 |
| 3.5 本章小结 | 第47-48页 |
| 4 基于关键帧提取的视频人脸检测定位改进方法 | 第48-63页 |
| 4.1 基于关键帧提取的视频人脸检测定位方法技术路线 | 第48-49页 |
| 4.2 结合压缩感知分割子镜头 | 第49-52页 |
| 4.2.1 从RGB到 HSV空间的转换 | 第49-50页 |
| 4.2.2 图像信息的稀疏表示 | 第50-51页 |
| 4.2.3 构建图像多尺度低维特征向量 | 第51页 |
| 4.2.4 在低维多尺度特征上分割子镜头 | 第51-52页 |
| 4.3 利用颜色直方图匹配算法提取关键帧 | 第52-56页 |
| 4.3.1 颜色空间量化 | 第52-53页 |
| 4.3.2 颜色直方图特征统计 | 第53-55页 |
| 4.3.3 关键帧提取 | 第55-56页 |
| 4.4 基于YOLO的人脸区域定位检测 | 第56-57页 |
| 4.4.1 YOLO模型设计 | 第56页 |
| 4.4.2 训练与测试 | 第56-57页 |
| 4.5 基于CLM人脸对齐处理 | 第57-58页 |
| 4.6 实验结果分析 | 第58-61页 |
| 4.7 本章小结 | 第61-63页 |
| 5 基于Sphereface的人脸识别算法 | 第63-68页 |
| 5.1 激活函数的选取 | 第63-64页 |
| 5.2 准备数据集 | 第64页 |
| 5.3 损失函数 | 第64页 |
| 5.4 训练过程 | 第64-65页 |
| 5.5 实验结果分析 | 第65-67页 |
| 5.6 本章小结 | 第67-68页 |
| 6 总结与展望 | 第68-70页 |
| 6.1 论文工作总结 | 第68-69页 |
| 6.2 研究工作展望 | 第69-70页 |
| 参考文献 | 第70-73页 |
| 致谢 | 第73-74页 |
| 个人简历、攻读硕士期间学术成果 | 第74页 |