摘要 | 第6-7页 |
abstract | 第7-8页 |
第1章 绪论 | 第11-17页 |
1.1 课题研究的背景及意义 | 第11-12页 |
1.2 相关研究的国内外现状 | 第12-14页 |
1.2.1 操作票系统的研究现状 | 第12-13页 |
1.2.2 强化学习的研究现状 | 第13-14页 |
1.3 目前操作票系统存在的不足 | 第14-15页 |
1.4 本文研究内容 | 第15-17页 |
第2章 强化学习相关理论 | 第17-25页 |
2.1 强化学习 | 第17-22页 |
2.1.1 时序差分学习算法 | 第18-19页 |
2.1.2 策略梯度学习算法 | 第19-21页 |
2.1.3 Actor-Critic算法 | 第21页 |
2.1.4 Shaping技术 | 第21-22页 |
2.2 深度学习 | 第22-23页 |
2.2.1 卷积神经网络 | 第22-23页 |
2.2.2 深度强化学习 | 第23页 |
2.2.3 TensorFlow和TensorLayer技术 | 第23页 |
2.3 本章小结 | 第23-25页 |
第3章 操作票系统总体设计 | 第25-33页 |
3.1 需求及特性分析 | 第25-27页 |
3.1.1 需求性分析 | 第25-26页 |
3.1.2 操作票特性分析 | 第26页 |
3.1.3 系统操作流程 | 第26-27页 |
3.2 电力网络建模 | 第27-29页 |
3.3 系统模块分析 | 第29-32页 |
3.3.1 交互模块 | 第29页 |
3.3.2 控制模块 | 第29页 |
3.3.3 数据库模块 | 第29-32页 |
3.4 本章小结 | 第32-33页 |
第4章 Shaping确定性策略梯度推理方法的实现 | 第33-52页 |
4.1 推理网络结构模型 | 第33-34页 |
4.2 数据处理 | 第34-35页 |
4.3 推理算法 | 第35-42页 |
4.3.1 确定策略梯度算法 | 第36-38页 |
4.3.2 Shaping确定性策略梯度算法 | 第38-39页 |
4.3.3 网络训练方法 | 第39-41页 |
4.3.4 Shaping-DPG流程 | 第41-42页 |
4.4 消除数据相关性 | 第42-44页 |
4.4.1 经验回放 | 第42-43页 |
4.4.2 目标网络法 | 第43-44页 |
4.5 回报函数 | 第44-50页 |
4.5.1 电力安全制度 | 第45-46页 |
4.5.2 网络评估函数 | 第46-49页 |
4.5.3 立即回报函数 | 第49-50页 |
4.6 完整算法流程 | 第50-51页 |
4.7 本章小结 | 第51-52页 |
第5章 实例分析 | 第52-57页 |
5.1 实例分析 | 第52-55页 |
5.1.1 学习曲线 | 第53-54页 |
5.1.2 方法对比 | 第54-55页 |
5.2 自动开票 | 第55页 |
5.3 操作票管理 | 第55-56页 |
5.4 本章小结 | 第56-57页 |
结论 | 第57-59页 |
致谢 | 第59-60页 |
参考文献 | 第60-63页 |
攻读硕士学位期间发表的论文及科研成果 | 第63页 |