摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第1章 绪论 | 第17-23页 |
1.1 引言 | 第17-18页 |
1.2 深度学习模型于移动端能效优化的研究现状 | 第18-20页 |
1.2.1 早期的探索与尝试 | 第18-19页 |
1.2.2 基于模型压缩的优化 | 第19页 |
1.2.3 基于异构计算的优化 | 第19-20页 |
1.2.4 其他优化方法 | 第20页 |
1.3 论文的主要研究工作 | 第20-21页 |
1.4 论文的组织结构 | 第21-23页 |
第2章 技术背景与实验平台 | 第23-37页 |
2.1 卷积神经网络 | 第23-27页 |
2.1.1 卷积层 | 第24-25页 |
2.1.2 池化层 | 第25-26页 |
2.1.3 全连接层 | 第26页 |
2.1.4 激活层 | 第26-27页 |
2.2 反向传播算法 | 第27-28页 |
2.2.1 梯度下降 | 第27-28页 |
2.2.2 反向传播 | 第28页 |
2.3 OpenCL异构编程框架 | 第28-32页 |
2.3.1 可移植性 | 第29页 |
2.3.2 标准向量处理 | 第29页 |
2.3.3 并行编程 | 第29-30页 |
2.3.4 OpenCL基本编程流程 | 第30-32页 |
2.4 能效度量标准与实验平台 | 第32-35页 |
2.4.1 能效度量标准 | 第32-33页 |
2.4.2 ODROID-XU3 | 第33-35页 |
2.4.3 Open-Q~(TM) 820开发套件 | 第35页 |
2.5 本章小结 | 第35-37页 |
第3章 基于手机GPU加速和离线模型压缩的能效优化 | 第37-59页 |
3.1 CNN前向推断基本算子的分解与实现 | 第37-45页 |
3.1.1 全连接层基本算子 | 第37-40页 |
3.1.2 卷积层基本算子 | 第40-42页 |
3.1.3 池化层基本算子 | 第42-44页 |
3.1.4 激活层基本算子 | 第44-45页 |
3.2 基于手机GPU加速的CNN前向推断 | 第45-49页 |
3.2.1 预训练CNN模型权重参数解析 | 第45-46页 |
3.2.2 LeNet-5模型于移动端的重构 | 第46-47页 |
3.2.3 AlexNet模型于移动端的重构 | 第47-49页 |
3.3 基于“剪枝-重训”的层压缩优化 | 第49-56页 |
3.3.1 模型剪枝流程 | 第50-51页 |
3.3.2 LeNet-5模型剪枝 | 第51-52页 |
3.3.3 AlexNet模型剪枝 | 第52-54页 |
3.3.4 移动端SpMV的实现 | 第54-55页 |
3.3.5 与CNNdroid的对比 | 第55-56页 |
3.4 本章小结 | 第56-59页 |
第4章 基于异构设备处理器并行执行推断的能效优化 | 第59-69页 |
4.1 移动端SoC的发展趋势 | 第59-60页 |
4.2 基于异构计算的CNN并行推断研究动机 | 第60-61页 |
4.3 基于异构计算的自适应计算任务分配策略 | 第61-65页 |
4.3.1 高能效设备处理器组合的搜索 | 第61-63页 |
4.3.2 计算任务的划分 | 第63-65页 |
4.4 实验验证 | 第65-68页 |
4.5 本章小结 | 第68-69页 |
第5章 基于应用场景的系统层能效优化 | 第69-79页 |
5.1 动态电压频率调节技术 | 第69页 |
5.2 智能监控系统Android应用的负载分析 | 第69-73页 |
5.3 基于应用场景的系统层能效优化策略 | 第73-75页 |
5.3.1 动态时间规整 | 第73-74页 |
5.3.2 基于应用场景的调频策略 | 第74-75页 |
5.4 实验验证 | 第75-77页 |
5.5 本章小结 | 第77-79页 |
第6章 总结与展望 | 第79-81页 |
6.1 本文工作总结 | 第79-80页 |
6.2 未来工作展望 | 第80-81页 |
参考文献 | 第81-87页 |
致谢 | 第87-89页 |
在读期间发表的学术论文与取得的研究成果 | 第89页 |