首页--工业技术论文--自动化技术、计算机技术论文--自动化基础理论论文--人工智能理论论文

可重构平台上面向卷积神经网络的异构多核加速方法研究

摘要第5-7页
ABSTRACT第7-8页
第1章 绪论第17-35页
    1.1 卷积神经网络简介第18-27页
        1.1.1 卷积神经网络的发展历史第18-19页
        1.1.2 卷积神经网络的应用领域第19-22页
        1.1.3 卷积神经网络的层级组成第22-27页
    1.2 卷积神经网络的硬件加速以及软硬件特征失配问题第27-32页
        1.2.1 卷积神经网络的硬件加速方法第27-30页
        1.2.2 卷积神经网络硬件加速中的软、硬件特征失配问题第30-32页
    1.3 主要研究内容和贡献第32-34页
    1.4 本文的组织结构第34-35页
第2章 相关工作第35-45页
    2.1 基于ASIC的神经网络硬件加速器第35-39页
        2.1.1 面向普适性硬件架构设计的ASIC加速器第35-37页
        2.1.2 面向特定神经网络计算特性的ASIC加速器第37-39页
    2.2 基于FPGA的神经网络硬件加速器第39-43页
        2.2.1 FPGA上卷积神经网络加速器的设计和优化第39-42页
        2.2.2 基于FPGA的神经网络加速器设计框架第42-43页
    2.3 现有软硬件特征失配问题的解决方案第43-44页
    2.4 本章小结第44-45页
第3章 片上固化全网络层的异构多核加速方法第45-70页
    3.1 背景和动机第45页
    3.2 加速器的整体架构第45-47页
    3.3 计算映射与并行策略第47-51页
        3.3.1 网络的直接映射策略第47-49页
        3.3.2 基于层间融合的映射策略第49-51页
    3.4 整体访存优化第51-54页
        3.4.1 全连接层的平衡剪枝第51-53页
        3.4.2 层间流水中的半批处理第53-54页
    3.5 加速器部署的设计空间搜索策略第54-63页
        3.5.1 设计空间搜索整体思路第54-56页
        3.5.2 面向Roofline模型的组合优化模型第56-63页
    3.6 实验方法和实验结果第63-69页
        3.6.1 实验方法第63-64页
        3.6.2 实验结果第64-67页
        3.6.3 讨论第67-69页
    3.7 本章小结第69-70页
第4章 面向层级特征的异构多核加速方法第70-87页
    4.1 背景和动机第70-71页
    4.2 面向层级特征的多核硬件架构第71-72页
    4.3 多核结构中的层级计算划分第72-75页
        4.3.1 粗粒度网络层划分和硬件部署方式第72-74页
        4.3.2 细粒度网络层划分第74-75页
    4.4 加速器部署的设计空间搜索策略第75-81页
    4.5 实验方法和实验结果第81-86页
        4.5.1 实验方法第81-82页
        4.5.2 实验结果第82-86页
    4.6 本章小结第86-87页
第5章 面向动态重构场景的异构多核加速方法第87-103页
    5.1 背景和动机第87-88页
    5.2 层内计算划分第88-89页
    5.3 硬件加速系统的整体结构第89-91页
        5.3.1 硬件部分第89-90页
        5.3.2 软件部分第90-91页
    5.4 面向特定网络模型的硬件加速部署第91-97页
        5.4.1 计算核心设计第91-93页
        5.4.2 运行时计算核心重构策略第93-97页
    5.5 实验方法和实验结果第97-101页
        5.5.1 实验方法第97-98页
        5.5.2 实验结果第98-101页
    5.6 本章小结第101-103页
第6章 总结与展望第103-106页
    6.1 本文工作总结第103-104页
    6.2 未来研究展望第104-106页
参考文献第106-118页
致谢第118-119页
在读期间发表的学术论文与取得的研究成果第119页

论文共119页,点击 下载论文
上一篇:类锂和类氦的C,Fe和Ni离子光电离和光复合的共振特性研究
下一篇:本地差分隐私保护的数据统计分析研究