基于深度强化学习的时序推特流文本分类方法研究
中文摘要 | 第3-4页 |
英文摘要 | 第4-5页 |
1 绪论 | 第9-17页 |
1.1 研究背景及意义 | 第9-10页 |
1.2 相关研究综述 | 第10-13页 |
1.2.1 文本分类 | 第10-12页 |
1.2.2 深度强化学习 | 第12-13页 |
1.3 研究内容和技术路线 | 第13-15页 |
1.3.1 研究内容 | 第13-14页 |
1.3.2 技术路线 | 第14-15页 |
1.4 本文的内容组织和结构 | 第15-16页 |
1.5 本章小结 | 第16-17页 |
2 相关理论与技术 | 第17-31页 |
2.1 文本表示方法 | 第17-19页 |
2.1.1 词袋模型 | 第17页 |
2.1.2 词向量模型 | 第17-18页 |
2.1.3 N-Gram语言模型 | 第18页 |
2.1.4 神经网络语言模型 | 第18-19页 |
2.1.5 CBOW和Skip-Gram模型 | 第19页 |
2.2 分类方法 | 第19-22页 |
2.2.1 支持向量机 | 第19-20页 |
2.2.2 长短期记忆网络 | 第20-22页 |
2.3 深度强化网络 | 第22-27页 |
2.3.1 动作价值函数 | 第22-23页 |
2.3.2 贝尔曼方程 | 第23-24页 |
2.3.3 最优价值函数 | 第24页 |
2.3.4 策略迭代 | 第24-25页 |
2.3.5 价值迭代 | 第25-26页 |
2.3.6 e-greedy策略 | 第26-27页 |
2.4 Q-Learning算法 | 第27-28页 |
2.5 Deep Q-Network算法 | 第28-29页 |
2.5.1 价值函数近似 | 第28页 |
2.5.2 算法描述和架构 | 第28-29页 |
2.6 本章小结 | 第29-31页 |
3 时序推特流文本相关度预测模型 | 第31-38页 |
3.1 基于向量空间余弦的相似度计算 | 第31-33页 |
3.1.1 度量向量之间相似度的方法 | 第31-32页 |
3.1.2 余弦相似度计算 | 第32-33页 |
3.2 基于SVM的相关度预测模型 | 第33-35页 |
3.2.1 基本分类流程 | 第33-34页 |
3.2.2 特征抽取 | 第34页 |
3.2.3 归一化处理 | 第34-35页 |
3.2.4 数据不均衡问题 | 第35页 |
3.3 基于LSTM的相关度预测模型 | 第35-37页 |
3.4 本章小结 | 第37-38页 |
4 基于DQN-TC算法的时序推特流文本分类方法 | 第38-43页 |
4.1 问题定义 | 第38-39页 |
4.2 算法设计 | 第39-42页 |
4.2.1 算法流程 | 第39页 |
4.2.2 算法框架 | 第39-42页 |
4.3 本章小结 | 第42-43页 |
5 实验与分析 | 第43-56页 |
5.1 实验环境配置 | 第43-45页 |
5.1.1 实验中的一些基本概念 | 第43页 |
5.1.2 工具介绍 | 第43-44页 |
5.1.3 参数设置 | 第44-45页 |
5.2 推特数据预处理 | 第45-52页 |
5.2.1 数据集介绍 | 第45-46页 |
5.2.2 数据清洗 | 第46-47页 |
5.2.3 数据统计分析 | 第47-51页 |
5.2.4 文本数据向量化 | 第51-52页 |
5.3 实验结果与分析 | 第52-55页 |
5.3.1 基于夹角余弦值的相似度计算结果和分析 | 第52-53页 |
5.3.2 相关算法推特文本分类实验结果和分析 | 第53-55页 |
5.4 本章小结 | 第55-56页 |
6 总结与展望 | 第56-58页 |
6.1 总结 | 第56页 |
6.2 展望 | 第56-58页 |
致谢 | 第58-59页 |
参考文献 | 第59-62页 |
附录 | 第62页 |
A.作者在攻读学位期间发表的论文目录: | 第62页 |