首页--工业技术论文--自动化技术、计算机技术论文--自动化基础理论论文--人工智能理论论文

基于多GPU的多层神经网络并行加速训练算法的研究

摘要第4-5页
ABSTRACT第5-6页
第1章 绪论第9-17页
    1.1 课题研究背景及意义第9-10页
    1.2 网络加速训练的国内外研究现状及分析第10-15页
        1.2.1 国外研究现状第10-13页
        1.2.2 国内研究现状第13-14页
        1.2.3 国内外文献综述的简析第14-15页
    1.3 本文主要研究内容第15页
    1.4 本文的结构第15-17页
第2章 神经网络模型及其学习方法第17-27页
    2.1 人工神经网络概述第17-20页
        2.1.1 神经网络的基本概念第17-19页
        2.1.2 多层前馈神经网络第19-20页
    2.2 BP神经网络模型第20-24页
        2.2.1 神经网络的误差反向传播第21-22页
        2.2.2 梯度下降算法分析第22-24页
    2.3 对异步随机梯度下降算法的研究第24-26页
    2.4 本章小结第26-27页
第3章 基于CUDA的加速训练算法的研究与设计第27-44页
    3.1 CUDA的概述第27-32页
        3.1.1 CUDA的线程组层次结构第27-28页
        3.1.2 CUDA的硬件架构分析第28-30页
        3.1.3 CUDA的存储器第30-32页
    3.2 基于单GPU的加速训练算法的研究第32-38页
        3.2.1 有监督学习过程的并行化分析第32-33页
        3.2.2 单GPU上小批量数据集并行算法的实现第33-38页
    3.3 基于多GPU的异步随机梯度下降算法的改进和设计第38-43页
        3.3.1 对异步随机梯度下降算法模型的改进第38-40页
        3.3.2 小批量数据集的分发机制设计第40-41页
        3.3.3 梯度的分发调度策略设计第41-43页
    3.4 本章小结第43-44页
第4章 基于多GPU的网络加速训练实验分析第44-55页
    4.1 引言第44页
    4.2 系统实验硬件及软件平台第44页
    4.3 MNIST数据集及其存储处理第44-46页
    4.4 单GPU实验及其结果对比分析第46-49页
        4.4.1 单GPU与CPU实验结果比较第46-47页
        4.4.2 单GPU与CXXNET开源框架实验结果比较第47-49页
    4.5 多GPU环境实验及其结果对比分析第49-54页
        4.5.1 异步随机梯度下降算法改进前后实验结果分析第49-51页
        4.5.2 多GPU训练中分批大小的影响分析第51-52页
        4.5.3 不同数量GPU训练实验加速效果对比和分析第52-54页
    4.6 本章小结第54-55页
结论第55-56页
参考文献第56-62页
致谢第62页

论文共62页,点击 下载论文
上一篇:混合出资离婚财产归属问题研究
下一篇:爱丽丝·门罗小说《红皮藻》和《普鲁》汉译实践报告