首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于GPU的深度学习算法并行化研究

摘要第5-6页
Abstract第6页
第一章 绪论第9-14页
    1.1 研究背景及意义第9-10页
    1.2 国内外研究现状第10-12页
        1.2.1 深度学习的研究现状第10-11页
        1.2.2 硬件加速的研究现状第11-12页
        1.2.3 GPU并行计算的研究现状第12页
    1.3 论文研究内容第12-13页
    1.4 论文组织结构第13-14页
第二章 常见的深度学习网络结构第14-25页
    2.1 人工神经网络第14-18页
        2.1.1 概述第14页
        2.1.2 神经网络结构第14-17页
        2.1.3 反向传播算法第17-18页
    2.2 卷积神经网络第18-24页
        2.2.1 稀疏连接和权值共享第18-20页
        2.2.2 卷积神经网络结构第20-22页
        2.2.3 卷积神经网络的反向传播第22-24页
    2.3 本章小结第24-25页
第三章 GPU通用计算和CUDA技术第25-32页
    3.1 图形处理器GPU第25-27页
        3.1.1 GPU简介第25页
        3.1.2 GPU通用计算第25-26页
        3.1.3 GPU与CPU第26-27页
    3.2 CUDA技术简介第27-31页
        3.2.1 CUDA线程结构第27-28页
        3.2.2 CUDA存储结构第28-30页
        3.2.3 CUDA编程模型第30-31页
    3.3 本章小结第31-32页
第四章 基于GPU的深度学习算法并行化第32-43页
    4.1 卷积神经网络并行化的关键技术第32-35页
        4.1.1 卷积展开成矩阵乘法第32-34页
        4.1.2 激活函数ReLU第34-35页
    4.2 基于GPU的卷积神经网络设计与实现第35-39页
        4.2.1 卷积层的实现第35-37页
        4.2.2 采样层的实现第37-38页
        4.2.3 激活层与全连接层的实现第38-39页
    4.3 网络模型初始化和训练过程第39-42页
        4.3.1 网络结构搭建第39页
        4.3.2 数据预处理和参数初始化第39-40页
        4.3.3 网络训练过程第40-42页
    4.4 本章小结第42-43页
第五章 性能测试与结果分析第43-55页
    5.1 实验环境与测试方法设计第43-44页
    5.2 LeNet-5上的实验第44-47页
        5.2.1 LeNet-5网络模型第44页
        5.2.2 MNIST数据集第44-45页
        5.2.3 实验结果分析第45-47页
    5.3 CIFAR-10网络模型的实验第47-49页
        5.3.1 CIFAR-10网络模型第47页
        5.3.2 CIFAR-10数据集第47-48页
        5.3.3 实验结果分析第48-49页
    5.4 AlexNet网络模型的实验第49-54页
        5.4.1 AlexNet网络模型第49-50页
        5.4.2 ImageNet数据集简介第50-51页
        5.4.3 实验结果分析第51-54页
    5.5 本章小结第54-55页
第六章 总结与展望第55-56页
    6.1 论文总结第55页
    6.2 未来工作展望第55-56页
致谢第56-57页
参考文献第57-61页
攻读硕士期间取得的科研成果第61页

论文共61页,点击 下载论文
上一篇:财务报告透明度对权益资本成本的影响研究
下一篇:私募股权投资机构与董事会重组