深度神经网络在基于图片生成中国古诗问题中的研究与应用
摘要 | 第5-6页 |
ABSTRACT | 第6页 |
第1章 绪论 | 第9-15页 |
1.1 引言 | 第9-10页 |
1.2 研究背景及意义 | 第10-12页 |
1.3 研究动机及意义 | 第12-13页 |
1.4 本文主要贡献 | 第13页 |
1.5 本文组织结构 | 第13-15页 |
第2章 相关工作概述 | 第15-29页 |
2.1 基于传统方法的自动生成古诗方法 | 第15-17页 |
2.1.1 基于模板的方法 | 第15页 |
2.1.2 基于遗传算法的方法 | 第15-16页 |
2.1.3 基于统计机器翻译的方法 | 第16-17页 |
2.1.4 基于自动摘要技术的方法 | 第17页 |
2.2 基于深度学习的自动生成古诗方法 | 第17-23页 |
2.2.1 基于循环神经网络的古诗生成器 | 第17-18页 |
2.2.2 基于注意力机制的宋词生成器 | 第18-20页 |
2.2.3 基于规划的诗歌生成模型 | 第20-21页 |
2.2.4 记忆增强的自动生成古诗模型 | 第21-23页 |
2.3 自动生成图像标题的方法 | 第23-27页 |
2.3.1 卷积神经网络 | 第23-25页 |
2.3.2 多模态递归神经网络 | 第25-26页 |
2.3.3 基于长短记忆网络的图片标题生成模型 | 第26页 |
2.3.4 基于注意力机制的图片标题生成模型 | 第26-27页 |
2.4 本章小结 | 第27-29页 |
第3章 利用记忆网络基于图片生成古诗的模型 | 第29-47页 |
3.1 编码-解码模型 | 第29-33页 |
3.2 注意力机制 | 第33-35页 |
3.3 自动生成古诗的框架 | 第35-37页 |
3.4 基于图片的编码器I-Enc | 第37-38页 |
3.5 基于记忆的解码器M-Dec | 第38-45页 |
3.5.1 关键词抽取 | 第40-42页 |
3.5.2 主题记忆网络 | 第42-44页 |
3.5.3 主题增强的Softmax | 第44-45页 |
3.6 本章小结 | 第45-47页 |
第4章 实验及结果分析 | 第47-57页 |
4.1 数据集 | 第47-49页 |
4.1.1 数据预处理 | 第47-48页 |
4.1.2 数据匹配 | 第48-49页 |
4.2 训练细节 | 第49-50页 |
4.3 评价标准 | 第50-51页 |
4.4 对比模型 | 第51-53页 |
4.5 实验结果及分析 | 第53-56页 |
4.5.1 人为评分结果 | 第53-54页 |
4.5.2 自动评价结果 | 第54-55页 |
4.5.3 基于图片生成古诗示例 | 第55-56页 |
4.6 本章小结 | 第56-57页 |
第5章 总结与展望 | 第57-59页 |
5.1 全文总结 | 第57页 |
5.2 工作展望 | 第57-59页 |
参考文献 | 第59-65页 |
致谢 | 第65-67页 |
在读期间发表的学术论文与取得的研究成果 | 第67页 |