基于卷积神经网络的新闻文本分类问题研究
摘要 | 第3-4页 |
Abstract | 第4-5页 |
1 绪论 | 第8-14页 |
1.1 研究背景与意义 | 第8-9页 |
1.1.1 研究背景 | 第8页 |
1.1.2 研究意义 | 第8-9页 |
1.2 国内外研究现状 | 第9-12页 |
1.2.1 深度学习研究现状 | 第9-10页 |
1.2.2 文本分类研究现状 | 第10-11页 |
1.2.3 深度学习在文本挖掘方面的研究 | 第11-12页 |
1.3 本文研究目的和内容安排 | 第12-13页 |
1.4 本章小结 | 第13-14页 |
2 预备知识 | 第14-28页 |
2.1 中文分词方法 | 第14-17页 |
2.1.1 基于词典的中文分词算法 | 第14-15页 |
2.1.2 基于统计的分词算法 | 第15页 |
2.1.3 基于理解的分词算法 | 第15页 |
2.1.4 中文分词工具介绍 | 第15-16页 |
2.1.5 中文分词面临问题 | 第16-17页 |
2.2 文本特征提取算法 | 第17-20页 |
2.2.1 文本特征表示模型 | 第17-18页 |
2.2.2 文本特征选择方法 | 第18-20页 |
2.3 文本分类方法 | 第20-21页 |
2.3.1 k-近邻算法 | 第20页 |
2.3.2 朴素贝叶斯 | 第20-21页 |
2.3.3 支持向量机 | 第21页 |
2.4 深度学习模型 | 第21-26页 |
2.4.1 自动编码器 | 第21-23页 |
2.4.2 深信度网络 | 第23-24页 |
2.4.3 卷积神经网络 | 第24-26页 |
2.5 本章小结 | 第26-28页 |
3 文本预处理和特征提取相关研究 | 第28-36页 |
3.1 中文文本分类总结 | 第28页 |
3.2 文本预处理 | 第28-31页 |
3.2.1 中文分词 | 第29-30页 |
3.2.2 去停用词以及简单扩充词典 | 第30页 |
3.2.3 分词结果 | 第30-31页 |
3.3 Word2vec特征提取方法 | 第31-35页 |
3.3.1 基于Skip-gram模型的特征表示 | 第32-33页 |
3.3.2 实验设置 | 第33-34页 |
3.3.3 实验结果 | 第34-35页 |
3.4 本章小结 | 第35-36页 |
4 基于卷积神经网络模型的分类问题研究 | 第36-52页 |
4.1 卷积神经网络模型的设计 | 第36-40页 |
4.1.1 输入层 | 第36-37页 |
4.1.2 卷积层 | 第37-39页 |
4.1.3 池化层 | 第39页 |
4.1.4 全连接层 | 第39-40页 |
4.2 模型训练 | 第40-43页 |
4.2.1 激活函数 | 第40-41页 |
4.2.2 Dropout策略 | 第41页 |
4.2.3 参数优化 | 第41-42页 |
4.2.4 损失率和正确率 | 第42-43页 |
4.3 实验设置 | 第43-47页 |
4.3.1 实验环境及结果 | 第43-46页 |
4.3.2 对比实验 | 第46-47页 |
4.4 实验结果及分析 | 第47-48页 |
4.5 卷积神经网络可视化 | 第48-49页 |
4.6 本章小结 | 第49-52页 |
5 总结与展望 | 第52-54页 |
5.1 主要研究结果 | 第52页 |
5.2 展望 | 第52-54页 |
致谢 | 第54-56页 |
参考文献 | 第56-60页 |
攻读硕士学位期间发表的论文 | 第60页 |
攻读硕士研究生期间所获奖励 | 第60页 |