语言拓扑性的探索及对联系统的建设
摘要 | 第5-7页 |
Abstract | 第7-8页 |
第1章 绪论 | 第11-16页 |
1.1 研究目的及意义 | 第11-12页 |
1.2 研究背景 | 第12-14页 |
1.2.1 自然语言理解的发展 | 第12-13页 |
1.2.2 陈寅恪难题 | 第13-14页 |
1.3 国内外研究现状 | 第14-16页 |
第2章 语言的对称性 | 第16-21页 |
2.1 自然界中的对称性 | 第16-17页 |
2.1.1 物理学中的对称性 | 第16-17页 |
2.1.2 数学意义 | 第17页 |
2.2 语言的对称性 | 第17-21页 |
2.2.1 中文的对称性 | 第17-18页 |
2.2.2 英文的对称性 | 第18-21页 |
第3章 拓扑学 | 第21-25页 |
3.1 拓扑学的几个基本概念 | 第21-22页 |
3.2 拓扑的分类 | 第22-25页 |
第4章 语言的拓扑性 | 第25-33页 |
4.1 语言的拓扑性定义 | 第25-26页 |
4.2 认知语言学 | 第26-27页 |
4.3 拓扑几何原理与语言的开放类和封闭类问题 | 第27页 |
4.4 概念隐喻理论中的拓扑原理 | 第27-29页 |
4.4.1 隐喻的结构 | 第28页 |
4.4.2 隐喻具有认知的功能 | 第28-29页 |
4.5 语言的递归性和拓扑性的联系 | 第29-33页 |
4.5.1 递归在自然科学中的定义 | 第29-30页 |
4.5.2 递归在语言中的运用 | 第30页 |
4.5.3 语言递归性中的拓扑性质 | 第30-33页 |
第5章 基于深度学习的对联系统的构建 | 第33-51页 |
5.1 对联的历史和发展 | 第33页 |
5.2 对联的特征 | 第33-34页 |
5.3 对联的拓扑性 | 第34-35页 |
5.4 对联系统的构建 | 第35页 |
5.5 语料库 | 第35-36页 |
5.6 语言模型 | 第36-37页 |
5.7 seq2seq模型核心算法 | 第37-43页 |
5.7.1 人工神经网络 | 第37-38页 |
5.7.2 递归神经网络 | 第38-40页 |
5.7.3 Seq2Seq模型 | 第40-43页 |
5.8 tensorflow | 第43-44页 |
5.9 程序实现 | 第44-51页 |
结论 | 第51-53页 |
总结 | 第51-52页 |
展望 | 第52-53页 |
致谢 | 第53-55页 |
参考文献 | 第55-56页 |