首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于深度神经网络的视觉媒体风格转换方法研究

摘要第5-7页
ABSTRACT第7-9页
第1章 绪论第18-38页
    1.1 研究背景与意义第18-24页
        1.1.1 风格转换的定义第20页
        1.1.2 风格转换的研究内容第20-23页
        1.1.3 风格转换的研究意义第23-24页
    1.2 国内外研究现状第24-34页
        1.2.1 传统的纹理合成技术第25-26页
        1.2.2 传统的非真实感渲染技术第26页
        1.2.3 现有的图像风格转换算法第26-31页
        1.2.4 现有的视频风格转换算法第31-32页
        1.2.5 现有的图像上色方法第32-34页
    1.3 本文研究内容第34-36页
    1.4 本文组织结构第36-38页
第2章 基于风格基元的多风格前馈网络算法第38-54页
    2.1 引言第38-39页
    2.2 传统纹理合成技术中的纹理基元思想第39-40页
    2.3 基于风格基元的多风格前馈神经网络算法第40-42页
        2.3.1 编码器与解码器第40-41页
        2.3.2 风格基元层第41页
        2.3.3 目标损失函数第41-42页
        2.3.4 训练策略第42页
    2.4 实验结果第42-45页
        2.4.1 实验环境配置与细节第42-43页
        2.4.2 与基准方法的对比第43-45页
    2.5 分析实验第45-49页
        2.5.1 风格基元如何表达风格第45-47页
        2.5.2 图片的内容如何被表达第47-48页
        2.5.3 网络如何对内容和风格进行分离第48页
        2.5.4 内容图片如何控制风格转换结果第48-49页
    2.6 本算法支持的功能第49-52页
        2.6.1 对新风格的快速增量学习第49-50页
        2.6.2 快速风格切换第50-51页
        2.6.3 多风格融合第51-52页
    2.7 本章小结第52-54页
第3章 基于特征光流和门网络的视频风格转换算法第54-68页
    3.1 引言第54-55页
    3.2 视频风格转换的稳定性分析与启发第55-56页
    3.3 基于特征光流和门网络的视频风格转换算法第56-60页
        3.3.1 算法框架第57页
        3.3.2 风格转换网络第57-58页
        3.3.3 特征光流网络第58-59页
        3.3.4 特征门网络第59页
        3.3.5 整体工作流程第59页
        3.3.6 目标损失函数第59-60页
    3.4 实验结果第60-64页
        3.4.1 训练和测试数据设置第60-61页
        3.4.2 实验环境配置与细节第61页
        3.4.3 视觉效果比较与定量比较第61-64页
    3.5 分析实验第64-66页
        3.5.1 区分编解码器的最优特征层第64-65页
        3.5.2 是否固定特征光流网络第65页
        3.5.3 时序稳定性的迁移能力第65-66页
    3.6 本章小结第66-68页
第4章 基于特征中间域融合的立体图片和视频风格转换算法第68-82页
    4.1 引言第68-69页
    4.2 空间视差一致性损失第69-71页
    4.3 基于特征中间域融合的立体图片和视频风格转换算法第71-75页
        4.3.1 立体图片的风格转换算法第71-74页
        4.3.2 立体视频的风格转换第74-75页
    4.4 实验结果第75-79页
        4.4.1 实验环境配置与细节第75-76页
        4.4.2 双向视差子网络的评估第76-77页
        4.4.3 立体风格转换效果评估第77-79页
    4.5 分析实验第79-80页
        4.5.1 单向和双向网络设计对比第79页
        4.5.2 与视频风格转换算法变体的对比第79-80页
    4.6 本章小结第80-82页
第5章 基于参考图片的深度神经网络上色算法第82-106页
    5.1 引言第82页
    5.2 传统上色方法的分析与启发第82-84页
    5.3 基于参考图片的深度神经网络上色算法第84-91页
        5.3.1 相似性子网络第85-87页
        5.3.2 上色子网络第87-90页
        5.3.3 参考图片的自动化推荐系统第90-91页
    5.4 实验结果第91-99页
        5.4.1 训练数据集第92页
        5.4.2 实验环境配置与细节第92页
        5.4.3 运行时间第92页
        5.4.4 与基于参考图片上色方法的比较第92-93页
        5.4.5 与基于深度神经网络上色方法的比较第93-96页
        5.4.6 与基于用户笔画的深度神经网络上色方法的比较第96页
        5.4.7 传统照片和电影的上色第96-99页
    5.5 分析实验第99-104页
        5.5.1 上色子网络的工作原理分析第99-101页
        5.5.2 端到端训练的重要性分析第101-102页
        5.5.3 对参考图片和图片匹配算法的鲁棒性分析第102-103页
        5.5.4 对绘画和卡通图片上色的泛化能力分析第103页
        5.5.5 局限性分析第103-104页
    5.6 本章小结第104-106页
第6章 总结与展望第106-110页
    6.1 本文总结第106-107页
    6.2 研究展望第107-110页
参考文献第110-120页
致谢第120-122页
在读期间发表的学术论文与取得的研究成果第122-125页

论文共125页,点击 下载论文
上一篇:复杂网络结构下高阶多智能体系统的分析与综合
下一篇:多分布式电源的优化与协同控制策略