摘要 | 第5-7页 |
ABSTRACT | 第7-9页 |
第1章 绪论 | 第18-38页 |
1.1 研究背景与意义 | 第18-24页 |
1.1.1 风格转换的定义 | 第20页 |
1.1.2 风格转换的研究内容 | 第20-23页 |
1.1.3 风格转换的研究意义 | 第23-24页 |
1.2 国内外研究现状 | 第24-34页 |
1.2.1 传统的纹理合成技术 | 第25-26页 |
1.2.2 传统的非真实感渲染技术 | 第26页 |
1.2.3 现有的图像风格转换算法 | 第26-31页 |
1.2.4 现有的视频风格转换算法 | 第31-32页 |
1.2.5 现有的图像上色方法 | 第32-34页 |
1.3 本文研究内容 | 第34-36页 |
1.4 本文组织结构 | 第36-38页 |
第2章 基于风格基元的多风格前馈网络算法 | 第38-54页 |
2.1 引言 | 第38-39页 |
2.2 传统纹理合成技术中的纹理基元思想 | 第39-40页 |
2.3 基于风格基元的多风格前馈神经网络算法 | 第40-42页 |
2.3.1 编码器与解码器 | 第40-41页 |
2.3.2 风格基元层 | 第41页 |
2.3.3 目标损失函数 | 第41-42页 |
2.3.4 训练策略 | 第42页 |
2.4 实验结果 | 第42-45页 |
2.4.1 实验环境配置与细节 | 第42-43页 |
2.4.2 与基准方法的对比 | 第43-45页 |
2.5 分析实验 | 第45-49页 |
2.5.1 风格基元如何表达风格 | 第45-47页 |
2.5.2 图片的内容如何被表达 | 第47-48页 |
2.5.3 网络如何对内容和风格进行分离 | 第48页 |
2.5.4 内容图片如何控制风格转换结果 | 第48-49页 |
2.6 本算法支持的功能 | 第49-52页 |
2.6.1 对新风格的快速增量学习 | 第49-50页 |
2.6.2 快速风格切换 | 第50-51页 |
2.6.3 多风格融合 | 第51-52页 |
2.7 本章小结 | 第52-54页 |
第3章 基于特征光流和门网络的视频风格转换算法 | 第54-68页 |
3.1 引言 | 第54-55页 |
3.2 视频风格转换的稳定性分析与启发 | 第55-56页 |
3.3 基于特征光流和门网络的视频风格转换算法 | 第56-60页 |
3.3.1 算法框架 | 第57页 |
3.3.2 风格转换网络 | 第57-58页 |
3.3.3 特征光流网络 | 第58-59页 |
3.3.4 特征门网络 | 第59页 |
3.3.5 整体工作流程 | 第59页 |
3.3.6 目标损失函数 | 第59-60页 |
3.4 实验结果 | 第60-64页 |
3.4.1 训练和测试数据设置 | 第60-61页 |
3.4.2 实验环境配置与细节 | 第61页 |
3.4.3 视觉效果比较与定量比较 | 第61-64页 |
3.5 分析实验 | 第64-66页 |
3.5.1 区分编解码器的最优特征层 | 第64-65页 |
3.5.2 是否固定特征光流网络 | 第65页 |
3.5.3 时序稳定性的迁移能力 | 第65-66页 |
3.6 本章小结 | 第66-68页 |
第4章 基于特征中间域融合的立体图片和视频风格转换算法 | 第68-82页 |
4.1 引言 | 第68-69页 |
4.2 空间视差一致性损失 | 第69-71页 |
4.3 基于特征中间域融合的立体图片和视频风格转换算法 | 第71-75页 |
4.3.1 立体图片的风格转换算法 | 第71-74页 |
4.3.2 立体视频的风格转换 | 第74-75页 |
4.4 实验结果 | 第75-79页 |
4.4.1 实验环境配置与细节 | 第75-76页 |
4.4.2 双向视差子网络的评估 | 第76-77页 |
4.4.3 立体风格转换效果评估 | 第77-79页 |
4.5 分析实验 | 第79-80页 |
4.5.1 单向和双向网络设计对比 | 第79页 |
4.5.2 与视频风格转换算法变体的对比 | 第79-80页 |
4.6 本章小结 | 第80-82页 |
第5章 基于参考图片的深度神经网络上色算法 | 第82-106页 |
5.1 引言 | 第82页 |
5.2 传统上色方法的分析与启发 | 第82-84页 |
5.3 基于参考图片的深度神经网络上色算法 | 第84-91页 |
5.3.1 相似性子网络 | 第85-87页 |
5.3.2 上色子网络 | 第87-90页 |
5.3.3 参考图片的自动化推荐系统 | 第90-91页 |
5.4 实验结果 | 第91-99页 |
5.4.1 训练数据集 | 第92页 |
5.4.2 实验环境配置与细节 | 第92页 |
5.4.3 运行时间 | 第92页 |
5.4.4 与基于参考图片上色方法的比较 | 第92-93页 |
5.4.5 与基于深度神经网络上色方法的比较 | 第93-96页 |
5.4.6 与基于用户笔画的深度神经网络上色方法的比较 | 第96页 |
5.4.7 传统照片和电影的上色 | 第96-99页 |
5.5 分析实验 | 第99-104页 |
5.5.1 上色子网络的工作原理分析 | 第99-101页 |
5.5.2 端到端训练的重要性分析 | 第101-102页 |
5.5.3 对参考图片和图片匹配算法的鲁棒性分析 | 第102-103页 |
5.5.4 对绘画和卡通图片上色的泛化能力分析 | 第103页 |
5.5.5 局限性分析 | 第103-104页 |
5.6 本章小结 | 第104-106页 |
第6章 总结与展望 | 第106-110页 |
6.1 本文总结 | 第106-107页 |
6.2 研究展望 | 第107-110页 |
参考文献 | 第110-120页 |
致谢 | 第120-122页 |
在读期间发表的学术论文与取得的研究成果 | 第122-125页 |