基于神经网络的藏文律诗生成研究
摘要 | 第3-4页 |
Abstract | 第4页 |
第1章 绪论 | 第6-11页 |
1.1 课题研究背景及意义 | 第6-7页 |
1.2 国内外研究现状 | 第7-9页 |
1.3 主要研究内容和创新点 | 第9-10页 |
1.4 本文组织结构 | 第10-11页 |
第2章 TPG语料与藏文词向量 | 第11-24页 |
2.1 TPG语料库建设 | 第11-13页 |
2.2 词向量的原理与分析 | 第13-19页 |
2.2.1 词向量基本概念 | 第13-14页 |
2.2.2 CBOW模型 | 第14-17页 |
2.2.3 Skip-Gram模型 | 第17-19页 |
2.3 藏文词向量实验 | 第19-23页 |
2.4 本章小结 | 第23-24页 |
第3章 基于神经网络的藏文律诗生成 | 第24-35页 |
3.1 序列到序列模型 | 第24-31页 |
3.1.1 RNN模型 | 第24-27页 |
3.1.2 LSTM模型 | 第27-28页 |
3.1.3 编码器解码器模型 | 第28-30页 |
3.1.4 注意力机制 | 第30-31页 |
3.2 TPG模型的框架 | 第31-34页 |
3.3 本章小结 | 第34-35页 |
第4章 实验结果及分析 | 第35-49页 |
4.1 评价标准 | 第35-38页 |
4.1.1 BLEU值 | 第35-36页 |
4.1.2 ROUGE值 | 第36-37页 |
4.1.3 困惑度 | 第37-38页 |
4.2 超参选择实验 | 第38-45页 |
4.2.1 RNN、LSTM和GRU对比实验 | 第38-39页 |
4.2.2 藏文音节向量维度对比实验 | 第39-41页 |
4.2.3 Dropout对比实验 | 第41-43页 |
4.2.4 激活函数对比实验 | 第43-45页 |
4.3 分析实验结果 | 第45-48页 |
4.4 本章小结 | 第48-49页 |
第5章 总结与展望 | 第49-51页 |
5.1 工作总结 | 第49-50页 |
5.2 研究展望 | 第50-51页 |
参考文献 | 第51-55页 |
致谢 | 第55-56页 |
攻读硕士学位期间发表的论文及科研成果 | 第56页 |