首页--工业技术论文--自动化技术、计算机技术论文--自动化基础理论论文--人工智能理论论文--自动推理、机器学习论文

深度学习中优化算法的研究与改进

摘要第5-6页
ABSTRACT第6-7页
第一章 绪论第11-15页
    1.1 引言第11页
    1.2 研究背景与现状第11-12页
    1.3 论文主要内容第12-14页
    1.4 论文结构第14-15页
第二章 深度学习相关知识简介第15-23页
    2.1 深度学习基本概念第15-16页
        2.1.1 经验E第15页
        2.1.2 性能度量P第15页
        2.1.3 任务T第15-16页
    2.2 深度学习算法中常见网络结构第16-19页
        2.2.1 全连接多层神经网络第16页
        2.2.2 全连接神经网络传播过程第16-17页
        2.2.3 卷积神经网络第17-19页
    2.3 深度学习中常见损失函数第19-20页
        2.3.1 均方差损失函数第19页
        2.3.2 交叉熵损失函数第19-20页
        2.3.3 指数损失函数第20页
        2.3.4 绝对值损失函数第20页
    2.4 常见的数据集第20-22页
        2.4.1 MNIST数据集第20-21页
        2.4.2 CIFAR-10数据集第21页
        2.4.3 ImageNet数据集第21-22页
    2.5 本章总结第22-23页
第三章 深度学习优化算法介绍第23-28页
    3.1 常见的优化算法第23-27页
        3.1.1 随机梯度下降算法第23页
        3.1.2 动量算法第23-24页
        3.1.3 Nesterov's accelerated gradient算法第24-25页
        3.1.4 AdaGrad算法第25页
        3.1.5 RMSProp算法第25-26页
        3.1.6 Adam算法第26-27页
    3.2 本章总结第27-28页
第四章 Adam算法的改进——AMM算法第28-37页
    4.1 AMM算法背景介绍第28页
    4.2 AMM算法框架第28-29页
    4.3 AMM算法的收敛性分析第29-31页
    4.4 AMM算法数值实验第31-36页
        4.4.1 实验一: 卷积神经网络+mnist数据集第31-32页
        4.4.2 全连接神经网络+mnist数据集第32-34页
        4.4.3 逻辑回归问题+mnist第34-35页
        4.4.4 卷积神经网络+CIFAR10第35-36页
    4.5 本章总结第36-37页
第五章 其他三种算法的改进第37-46页
    5.1 带BB步长的RMSProp算法第37-38页
        5.1.1 两种传统的BB步长第37-38页
        5.1.2 带两种BB步长的RMSProp算法框架第38页
    5.2 带动量的AdaGrad算法第38-40页
        5.2.1 带动量的AdaGrad算法背景介绍第38-39页
        5.2.2 带动量的AdaGrad算法框架第39-40页
    5.3 改进的动量算法第40页
        5.3.1 改进动量算法背景介绍第40页
        5.3.2 改进的动量算法框架第40页
    5.4 数值实验结果第40-45页
        5.4.1 带两种BB步长的RMSPop算法数值实验第41-42页
        5.4.2 带动量的AdaGrad算法数值实验第42页
        5.4.3 改进的动量算法数值实验第42-45页
    5.5 本章总结第45-46页
第六章 带模式步的梯度法第46-52页
    6.1 背景介绍第46-47页
    6.2 带模式步的梯度算法框架第47页
    6.3 数值实验结果第47-51页
    6.4 本章总结第51-52页
第七章 总结与展望第52-53页
    7.1 工作总结第52页
    7.2 下一步研究内容第52-53页
参考文献第53-55页
致谢第55-56页
攻读学位期间发表的学术论文第56-57页
附录第57-60页

论文共60页,点击 下载论文
上一篇:基于深度模型学习的跨模态检索
下一篇:基于半监督机器学习的实体关系抽取算法研究