摘要 | 第4-6页 |
Abstract | 第6-8页 |
第1章 绪论 | 第16-22页 |
1.1 背景介绍 | 第16-20页 |
1.2 本文概览 | 第20-22页 |
第2章 相关工作 | 第22-30页 |
2.1 引言 | 第22-23页 |
2.2 基于图像的发型建模方法 | 第23-26页 |
2.2.1 基于多幅图像的发型建模 | 第23-24页 |
2.2.2 基于单幅图像的发型建模 | 第24页 |
2.2.3 数据驱动的发型建模方法 | 第24-26页 |
2.3 基于块匹配(PatchMatch)的合成方法 | 第26-27页 |
2.4 生成对抗网络 | 第27-30页 |
第3章 基于四视角图像的数据驱动三维发型建模方法 | 第30-56页 |
3.1 引言 | 第31-32页 |
3.2 方法概述 | 第32-33页 |
3.3 发型轮廓模型的构建 | 第33-36页 |
3.3.1 几何空间建立 | 第33-34页 |
3.3.2 三维发型数据库中的模型搜索 | 第34-35页 |
3.3.3 高频细节移除 | 第35页 |
3.3.4 基于多幅图像发型轮廓的变形 | 第35-36页 |
3.3.5 基于可见性和边界信息的裁剪 | 第36页 |
3.4 轮廓模型表面纹理的合成 | 第36-43页 |
3.4.1 轮廓模型参数化 | 第37页 |
3.4.2 二维图像基于块匹配的纹理合成算法 | 第37-39页 |
3.4.3 三维轮廓模型表面基于块匹配的纹理合成算法 | 第39-42页 |
3.4.4 基于多视角图像的轮廓模型表面纹理合成 | 第42-43页 |
3.5 三维发丝的生成 | 第43-45页 |
3.5.1 三维方向场的生成 | 第43-44页 |
3.5.2 发丝生长 | 第44页 |
3.5.3 发丝结构改善 | 第44-45页 |
3.6 实验结果与讨论 | 第45-48页 |
3.6.1 结果 | 第46页 |
3.6.2 比较 | 第46-47页 |
3.6.3 评估 | 第47页 |
3.6.4 局限 | 第47-48页 |
3.7 总结 | 第48-56页 |
第4章 基于单个RGB-D相机的数据驱动发型建模方法 | 第56-78页 |
4.1 引言 | 第57-59页 |
4.2 方法概述 | 第59-60页 |
4.3 三维发型区域的划分 | 第60-61页 |
4.4 发型几何引导样例的建立 | 第61-64页 |
4.4.1 三维发型数据库模型的图像绘制 | 第62页 |
4.4.2 图像发型区域测试 | 第62页 |
4.4.3 基于局部块相似性的候选样例搜索 | 第62-63页 |
4.4.4 几何引导数据生成 | 第63-64页 |
4.5 基于几何引导数据的发型合成 | 第64-67页 |
4.5.1 三维几何表面方向场重建 | 第64页 |
4.5.2 最近邻域(NNF)生成 | 第64-66页 |
4.5.3 发丝几何结构继承 | 第66-67页 |
4.6 实验结果与讨论 | 第67-70页 |
4.6.1 结果 | 第68页 |
4.6.2 比较与评估 | 第68-70页 |
4.6.3 局限 | 第70页 |
4.7 总结 | 第70-78页 |
第5章 以生成对抗网络实现基于单幅图像的三维发型建模 | 第78-100页 |
5.1 引言 | 第78-81页 |
5.2 方法概述 | 第81页 |
5.3 数据准备 | 第81-84页 |
5.3.1 同一模型空间 | 第81-82页 |
5.3.2 训练数据生成 | 第82-84页 |
5.4 生成对抗网络的设计 | 第84-89页 |
5.4.1 目标函数 | 第84-86页 |
5.4.2 网络架构 | 第86-88页 |
5.4.3 训练策略 | 第88-89页 |
5.5 发型建模 | 第89-90页 |
5.5.1 发型建模预处理 | 第89页 |
5.5.2 发型建模后处理 | 第89-90页 |
5.6 实验结果与讨论 | 第90-93页 |
5.6.1 评估 | 第91页 |
5.6.2 比较 | 第91-92页 |
5.6.3 应用 | 第92页 |
5.6.4 局限 | 第92-93页 |
5.7 总结 | 第93-100页 |
第6章 总结与展望 | 第100-104页 |
6.1 本文内容总结 | 第100-101页 |
6.2 未来工作展望 | 第101-104页 |
参考文献 | 第104-112页 |
攻读博士学位期间的主要研究成果 | 第112-114页 |
致谢 | 第114-115页 |