基于主题注意力机制的中文古典诗歌自动生成研究
摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第11-29页 |
1.1 引言 | 第11页 |
1.2 研究背景和意义 | 第11-14页 |
1.3 诗歌自动生成相关工作 | 第14-23页 |
1.3.1 词语沙拉 | 第14页 |
1.3.2 模板和模式的方法 | 第14-15页 |
1.3.3 基于实例推理的方法 | 第15-16页 |
1.3.4 基于遗传算法的方法 | 第16-17页 |
1.3.5 基于摘要生成的方法 | 第17-18页 |
1.3.6 基于统计机器翻译的方法 | 第18页 |
1.3.7 基于循环神经网络的方法 | 第18-20页 |
1.3.8 基于编码器-解码器框架的方法 | 第20-21页 |
1.3.9 基于神经注意力机制的方法 | 第21-22页 |
1.3.10 基于序列生成对抗网络的方法 | 第22页 |
1.3.11 基于规划的方法 | 第22-23页 |
1.3.12 记忆增强神经网络模型 | 第23页 |
1.4 诗歌自动生成相关工作评述 | 第23-25页 |
1.5 本文研究内容 | 第25-27页 |
1.6 本文组织结构 | 第27-29页 |
第二章 诗歌数据增强及训练语料构建 | 第29-43页 |
2.1 诗歌数据集增强策略 | 第29-30页 |
2.2 诗歌生成任务中关键词提取相关研究 | 第30-33页 |
2.2.1 TF-IDF | 第30-31页 |
2.2.2 TextRank | 第31-33页 |
2.3 结构化语义匹配关键词提取方法概述 | 第33页 |
2.4 面向古诗词的汉字分布式向量表示 | 第33-37页 |
2.4.1 语言模型 | 第34页 |
2.4.2 神经概率语言模型 | 第34-36页 |
2.4.3 Word2vec连续词袋模型 | 第36-37页 |
2.5 诗句语义向量表示 | 第37-39页 |
2.6 结构化语义匹配模型 | 第39-41页 |
2.7 诗歌训练语料构建 | 第41-43页 |
第三章 主题注意力机制诗歌生成模型 | 第43-69页 |
3.1 引言 | 第43-44页 |
3.2 总体思路和框架 | 第44-47页 |
3.3 循环神经网络 | 第47-52页 |
3.4 编码器-解码器框架 | 第52-54页 |
3.5 Bahdanau注意力机制 | 第54-55页 |
3.6 诗歌生成模型 | 第55-58页 |
3.7 实验数据及其预处理 | 第58-59页 |
3.8 模型的训练 | 第59页 |
3.9 TAMPG模型和人类诗歌的格律对比实验 | 第59-62页 |
3.10 TAMPG模型和其它模型的对比实验 | 第62-69页 |
3.10.1 实验设置 | 第62-63页 |
3.10.2 困惑度实验 | 第63-65页 |
3.10.3 语义相似度实验 | 第65-67页 |
3.10.4 实验结果总结 | 第67-69页 |
第四章 总结与展望 | 第69-73页 |
4.1 工作总结 | 第69-71页 |
4.2 展望 | 第71-73页 |
参考文献 | 第73-77页 |
致谢 | 第77页 |