摘要 | 第10-12页 |
ABSTRACT | 第12-13页 |
第1章 绪论 | 第14-26页 |
1.1 课题提出 | 第14-16页 |
1.1.1 食品安全监管中信息不对称 | 第14-15页 |
1.1.2 食品安全突发事件相关数据库 | 第15-16页 |
1.2 中文分词及其研究现状 | 第16-17页 |
1.3 本文研究内容 | 第17-18页 |
1.4 研究意义 | 第18-22页 |
1.4.1 对食品安全突发事件数据库构建的意义 | 第18-19页 |
1.4.2 对食品安全领域自然语言处理任务的意义 | 第19-22页 |
1.5 研究方法和技术路线 | 第22-23页 |
1.5.1 研究方法 | 第22-23页 |
1.5.2 研究技术路线 | 第23页 |
1.6 本文组织结构 | 第23-26页 |
第2章 中文分词的主要方法 | 第26-48页 |
2.1 中文分词的技术难点 | 第26-27页 |
2.2 中文分词中准确率和召回率介绍 | 第27页 |
2.3 中文分词主要方法 | 第27-31页 |
2.4 隐马尔可夫模型 | 第31-34页 |
2.4.1 隐马尔可夫模型介绍 | 第31-32页 |
2.4.2 隐马尔可夫模型在序列标注中的应用 | 第32-34页 |
2.5 最大熵马尔可夫模型 | 第34-37页 |
2.5.1 最大熵马尔可夫模型介绍 | 第34-35页 |
2.5.2 最大熵马尔可夫模型在序列标注中的应用 | 第35-36页 |
2.5.3 标注偏置问题 | 第36-37页 |
2.6 条件随机场模型 | 第37-40页 |
2.6.1 条件随机场模型介绍 | 第37-39页 |
2.6.2 条件随机场模型在序列标注中的应用 | 第39-40页 |
2.7 深度学习介绍 | 第40-48页 |
2.7.1 人工神经网络 | 第40-41页 |
2.7.2 深度学习的发展 | 第41-43页 |
2.7.3 深层神经网络的模型结构 | 第43-45页 |
2.7.4 深度学习的在序列标注上的应用 | 第45-48页 |
第3章 面向食品安全突发事件中文分词的特征选择及模型优化研究 | 第48-66页 |
3.1 食品安全语料库说明 | 第48-49页 |
3.2 实验方法 | 第49-51页 |
3.3 实验过程可视化 | 第51-55页 |
3.4 特征和特征标记的选择 | 第55-60页 |
3.4.1 特征选择的介绍 | 第55-56页 |
3.4.2 食品安全突发事件语料特点 | 第56-58页 |
3.4.3 面向食品安全突发事件中文分词的特征选择 | 第58-60页 |
3.5 特征模版的构建和优化 | 第60-61页 |
3.6 实验结果分析 | 第61-64页 |
3.7 本章小结 | 第64-66页 |
第4章 基于深度学习的食品安全突发事件中文分词 | 第66-88页 |
4.1 双向LSTM模型介绍 | 第66-71页 |
4.1.1 循环神经网络模型介绍 | 第66-68页 |
4.1.2 双向循环神经网络模型介绍 | 第68-69页 |
4.1.3 双向LSTM介绍 | 第69-71页 |
4.2 词向量介绍 | 第71-72页 |
4.3 过拟合和欠拟合 | 第72-74页 |
4.3.1 过拟合和欠拟合介绍 | 第72页 |
4.3.2 Dropout方法 | 第72-74页 |
4.4 基于双向LSTM的食品安全突发事件语料分词 | 第74-80页 |
4.4.1 实验数据介绍 | 第74-75页 |
4.4.2 实验数据处理 | 第75-77页 |
4.4.3 实验方法 | 第77-79页 |
4.4.4 实验结果分析 | 第79-80页 |
4.5 CRF模型与BLSTM模型在中文分词实验中的比较 | 第80-86页 |
4.5.1 训练数据 | 第81-82页 |
4.5.2 模型构建工具 | 第82-84页 |
4.5.3 在计算资源与训练时长 | 第84页 |
4.5.4 分词结果 | 第84-86页 |
4.6 本章小结 | 第86-88页 |
第5章 总结与展望 | 第88-92页 |
5.1 总结 | 第88-89页 |
5.2 展望 | 第89-92页 |
参考文献 | 第92-99页 |
致谢 | 第99-100页 |
攻读学位期间发表的论文 | 第100页 |