价值神经网络在计算机围棋的优化研究
摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第10-15页 |
1.1 研究背景 | 第10-11页 |
1.2 研究意义 | 第11-12页 |
1.3 研究现状 | 第12-13页 |
1.4 论文主要内容以及结构 | 第13-15页 |
第二章 价值神经网络数据集的制作 | 第15-21页 |
2.1 围棋盘面的特征选择 | 第15-18页 |
2.1.1 围棋的棋谱信息处理 | 第15-16页 |
2.1.2 虚拟棋盘的构造 | 第16页 |
2.1.3 围棋盘面的特征提取 | 第16-18页 |
2.2 数据集的准备 | 第18-20页 |
2.3 本章小结 | 第20-21页 |
第三章 价值神经网络的设计 | 第21-35页 |
3.1 大数据下的机器学习算法的选择 | 第21-22页 |
3.2 神经网络 | 第22-23页 |
3.2.1 简单的神经网络 | 第22页 |
3.2.2 神经网络的计算过程 | 第22-23页 |
3.3 神经网络的相关技术 | 第23-27页 |
3.3.1 激活函数 | 第23-26页 |
3.3.2 神经网络权值的初始化 | 第26-27页 |
3.4 卷积神经网络 | 第27-30页 |
3.4.1 卷积神经网络的提出 | 第27-28页 |
3.4.2 二维图像上的卷积运算 | 第28-29页 |
3.4.3 三维图像上的卷积运算 | 第29-30页 |
3.5 卷积神经网络的相关技术 | 第30-32页 |
3.5.1 卷积核 | 第30-31页 |
3.5.2 Padding | 第31页 |
3.5.3 卷积的步长 | 第31-32页 |
3.6 价值神经网络的实现 | 第32-34页 |
3.6.1 价值神经网络的模型 | 第32-33页 |
3.6.2 价值神经网络的实现 | 第33-34页 |
3.7 本章小结 | 第34-35页 |
第四章 价值神经网络的优化 | 第35-53页 |
4.1 价值网络几点优化 | 第35-37页 |
4.1.1 mini-batch梯度下降 | 第35-36页 |
4.1.2 学习率衰减 | 第36页 |
4.1.3 归一化 | 第36-37页 |
4.2 残差价值神经网络 | 第37-44页 |
4.2.1 残差网络的介绍 | 第37-38页 |
4.2.2 残差块 | 第38-39页 |
4.2.3 残差网络 | 第39-40页 |
4.2.4 深度残差价值网络的设计与实现 | 第40-42页 |
4.2.5 浅层残差价值网络的设计与实现 | 第42-44页 |
4.3 价值神经网络训练过程中的过拟合现象 | 第44-52页 |
4.3.1 过拟合现象 | 第44-45页 |
4.3.2 数据集 | 第45页 |
4.3.3 正则化 | 第45-49页 |
4.3.4 Dropout | 第49-52页 |
4.3.5 其他方法 | 第52页 |
4.4 本章小结 | 第52-53页 |
第五章 价值神经网络的分布式训练与接入 | 第53-63页 |
5.1 在MXNet中搭建价值神经网络 | 第53-56页 |
5.1.1 深度学习框架的选择 | 第53-54页 |
5.1.2 在MXNet中搭建价值神经网络 | 第54-56页 |
5.2 基于分布式系统的价值神经网络的训练 | 第56-61页 |
5.2.1 在GPU上训练价值神经网络 | 第56-57页 |
5.2.2 MXNet的分布式系统 | 第57-59页 |
5.2.3 在分布式系统上训练价值神经网络 | 第59-61页 |
5.3 价值神经网络接入计算机围棋程序 | 第61-62页 |
5.4 本章小结 | 第62-63页 |
第六章 论文总结与方法改进 | 第63-65页 |
6.1 论文总结工作 | 第63页 |
6.2 共享权值 | 第63-64页 |
6.3 强化学习 | 第64-65页 |
参考文献 | 第65-67页 |
致谢 | 第67-68页 |
攻读学位期间取得的研究成果 | 第68页 |