融合生物启发与深度属性学习的人脸美感预测方法
摘要 | 第4-6页 |
Abstract | 第6-7页 |
1 绪论 | 第13-18页 |
1.1 研究背景与意义 | 第13-15页 |
1.2 本文的主要创新 | 第15-16页 |
1.3 本文的组织结构 | 第16-18页 |
2 人脸美感预测方法 | 第18-23页 |
2.1 基于几何特征的人脸美感预测方法 | 第18-19页 |
2.2 基于全局特征的人脸美感预测方法 | 第19-21页 |
2.3 基于特征融合的人脸美感预测方法 | 第21页 |
2.4 人脸美感预测方法面临的主要问题 | 第21-22页 |
2.5 本章小结 | 第22-23页 |
3 人脸显著性特征的提取及美感标签的确定 | 第23-41页 |
3.1 人脸显著性特征的提取 | 第23-31页 |
3.1.1 眼动仪 | 第23-26页 |
3.1.2 眼动实验过程 | 第26-29页 |
3.1.3 人脸显著性特征的确定 | 第29-31页 |
3.2 人脸美感标签计算 | 第31-35页 |
3.2.1 TrueSkill算法 | 第32-34页 |
3.2.2 人脸美感标签 | 第34-35页 |
3.3 人脸显著性特征在人脸艺术QR码中的应用 | 第35-40页 |
3.3.1 QR码背景介绍 | 第36-37页 |
3.3.2 基于生物启发的人脸艺术QR码生成方法 | 第37-39页 |
3.3.3 视觉效果对比 | 第39-40页 |
3.4 本章小结 | 第40-41页 |
4 融合生物启发和深度属性学习的人脸美感分析体系 | 第41-57页 |
4.1 人脸视觉感兴趣区域的确定 | 第42-45页 |
4.1.1 人脸视觉感兴趣区域提取 | 第42-44页 |
4.1.2 人脸视觉感兴趣区域的有效性验证 | 第44-45页 |
4.2 仿生全局区域的确定 | 第45-48页 |
4.2.1 人脸全局对美感判断的影响 | 第45-47页 |
4.2.2 仿生全局区域 | 第47-48页 |
4.3 模型训练 | 第48-52页 |
4.3.1 人脸美感分析模型框架的搭建 | 第48-49页 |
4.3.2 仿生属性检测器的训练 | 第49-51页 |
4.3.3 仿生属性检测器效果验证 | 第51-52页 |
4.4 实验对比分析 | 第52-56页 |
4.4.1 不同特征提取方法的对比 | 第52-54页 |
4.4.2 不同特征提取区域的对比 | 第54页 |
4.4.3 不同特征提取方式的对比 | 第54-56页 |
4.5 本章小结 | 第56-57页 |
5 总结和展望 | 第57-59页 |
5.1 总结 | 第57-58页 |
5.2 展望 | 第58-59页 |
参考文献 | 第59-62页 |
个人简历、在学期间发表的学术论文与研究成果 | 第62-63页 |
致谢 | 第63页 |