| 摘要 | 第4-6页 |
| abstract | 第6-7页 |
| 第1章 绪论 | 第12-18页 |
| 1.1 研究背景与意义 | 第12-13页 |
| 1.2 国内外研究现状 | 第13-16页 |
| 1.2.1 词向量 | 第13页 |
| 1.2.2 深度神经网络 | 第13-15页 |
| 1.2.3 对联生成 | 第15-16页 |
| 1.3 论文组织结构以及创新点 | 第16-18页 |
| 1.3.1 论文组织结构 | 第16页 |
| 1.3.2 创新点 | 第16-18页 |
| 第2章 词向量的理论基础 | 第18-27页 |
| 2.1 词向量 | 第18-19页 |
| 2.2 词向量的获取方法 | 第19-20页 |
| 2.3 语言模型 | 第20-23页 |
| 2.3.1 N-Gram模型 | 第20-21页 |
| 2.3.2 神经概率语言模型 | 第21-23页 |
| 2.4 基于Softmax的CBOW模型和Skip-gram模型 | 第23-26页 |
| 2.5 本章总结 | 第26-27页 |
| 第3章 序列生成模型 | 第27-36页 |
| 3.1 循环神经网络 | 第29-31页 |
| 3.2 注意力机制 | 第31-33页 |
| 3.3 集束搜索 | 第33-35页 |
| 3.4 本章小结 | 第35-36页 |
| 第4章 对联生成模型构建 | 第36-46页 |
| 4.1 输入处理 | 第37-38页 |
| 4.2 编码阶段 | 第38-41页 |
| 4.3 解码阶段 | 第41-45页 |
| 4.4 本章小结 | 第45-46页 |
| 第5章 模型实现以及实验结果 | 第46-56页 |
| 5.1 深度学习框架tensorflow | 第46-48页 |
| 5.1.1 Tensorflow简介 | 第46-47页 |
| 5.1.2 tensorflow安装以及使用 | 第47-48页 |
| 5.2 数据处理 | 第48页 |
| 5.2.1 数据来源 | 第48页 |
| 5.2.2 数据处理 | 第48页 |
| 5.3 评价指标 | 第48-53页 |
| 5.3.1 BLEU评测方法 | 第49-50页 |
| 5.3.2 ROUGE评测方法 | 第50-51页 |
| 5.3.3 METEOR评测方法 | 第51-52页 |
| 5.3.4 CIDEr评测方法 | 第52-53页 |
| 5.4 实验结果 | 第53-55页 |
| 5.5 本章小结 | 第55-56页 |
| 第6章 总结与展望 | 第56-57页 |
| 6.1 总结 | 第56页 |
| 6.2 展望 | 第56-57页 |
| 参考文献 | 第57-61页 |
| 作者简介及科研成果 | 第61-62页 |
| 致谢 | 第62页 |