摘要 | 第4-5页 |
abstract | 第5-6页 |
1 绪论 | 第10-15页 |
1.1 研究背景与意义 | 第10页 |
1.2 国内外研究现状 | 第10-12页 |
1.2.1 国内研究现状 | 第10-11页 |
1.2.2 国外研究现状 | 第11-12页 |
1.3 本领域中遇到的挑战 | 第12-13页 |
1.4 本文的创新工作 | 第13页 |
1.5 本文的主要工作及各章节安排 | 第13-15页 |
1.5.1 本文的主要工作 | 第13-14页 |
1.5.2 论文结构 | 第14-15页 |
2 相关理论概述 | 第15-20页 |
2.1 传统方法介绍 | 第15-16页 |
2.1.1 KNN | 第15页 |
2.1.2 MLP | 第15-16页 |
2.2 基于MobileNet V1 深度学习网络 | 第16页 |
2.3 基于NASNetMobile深度学习网络 | 第16-17页 |
2.4 基于MobileNetV2 深度学习网络 | 第17-18页 |
2.5 迁移学习 | 第18-20页 |
2.5.1 迁移学习概念 | 第18页 |
2.5.2 迁移学习解释 | 第18-20页 |
3 基于改进型MobileNetV3 网络 | 第20-56页 |
3.1 数据集制作 | 第20-22页 |
3.1.1 垃圾分类标准 | 第20页 |
3.1.2 数据集标签 | 第20页 |
3.1.3 数据集图片 | 第20-22页 |
3.1.4 数据集格式 | 第22页 |
3.2 问题分析 | 第22页 |
3.3 数据预处理 | 第22-26页 |
3.3.1 图像尺寸 | 第24页 |
3.3.2 数据增强 | 第24-25页 |
3.3.3 数据归一化 | 第25-26页 |
3.4 网络结构设计 | 第26-31页 |
3.4.1 压缩和激励模块 | 第26页 |
3.4.2 非线性激活函数 | 第26-27页 |
3.4.3 dropout层 | 第27页 |
3.4.4 BN层 | 第27-28页 |
3.4.5 组归一化(Group Normalization) | 第28页 |
3.4.6 优化器 | 第28-29页 |
3.4.7 softmax层 | 第29-30页 |
3.4.8 损失函数 | 第30-31页 |
3.5 模型结构定义 | 第31-32页 |
3.6 迁移学习方案 | 第32-36页 |
3.7 标签平滑 | 第36页 |
3.8 训练技巧 | 第36-37页 |
3.8.1 几何增加的循环重启间隔余弦退火 | 第36-37页 |
3.8.2 固定循环重启间隔余弦退火 | 第37页 |
3.8.3 模型保存方法 | 第37页 |
3.9 评价指标 | 第37-39页 |
3.9.1 计算指标实现细节 | 第38-39页 |
3.10 实验结果与分析 | 第39-56页 |
3.10.1 实验环境 | 第39页 |
3.10.2 超参数设置 | 第39-41页 |
3.10.3 学习率调度器实验结果与分析 | 第41-43页 |
3.10.4 损失函数实验结果与分析 | 第43-46页 |
3.10.5 优化器实验结果与分析 | 第46页 |
3.10.6 迁移学习实验结果与分析 | 第46-48页 |
3.10.7 垃圾分类模型性能测试 | 第48-52页 |
3.10.8 垃圾分类模型可视化测试 | 第52-56页 |
4 基于docker集成环境和算法智能平台设计 | 第56-60页 |
4.1 虚拟容器技术 | 第56-57页 |
4.2 项目容器化部署 | 第57-58页 |
4.3 构建镜像 | 第58-59页 |
4.4 平台系统测试 | 第59-60页 |
5 高效的网络模型构建 | 第60-67页 |
5.1 高效构建深度神经网络目的 | 第60页 |
5.2 神经网络推理加速技术 | 第60-62页 |
5.2.1 压缩技术 | 第61页 |
5.2.2 量化技术 | 第61页 |
5.2.3 并行技术 | 第61-62页 |
5.3 用剪枝压缩训练深度神经网络 | 第62-65页 |
5.3.1 剪枝技术的生物学启示 | 第62-63页 |
5.3.2 对神经元进行剪枝 | 第63页 |
5.3.3 权重修剪 | 第63-65页 |
5.3.4 剪枝的扩展作用 | 第65页 |
5.4 实验结果与分析 | 第65-67页 |
6 基于边缘计算设备的模型部署和实现 | 第67-73页 |
6.1 系统架构 | 第67-68页 |
6.2 基于hls4ml构建神经网络 | 第68-69页 |
6.2.1 hls4ml概念 | 第68-69页 |
6.2.2 hls4ml优点 | 第69页 |
6.2.3 hls4ml缺点 | 第69页 |
6.3 部署深度学习模型在硬件平台 | 第69-73页 |
6.3.1 基于GPU的嵌入式平台 | 第69-70页 |
6.3.2 模型转化技术 | 第70-71页 |
6.3.3 垃圾分类硬件系统和测试结果 | 第71-73页 |
7 总结与展望 | 第73-75页 |
7.1 总结 | 第73-74页 |
7.2 展望 | 第74-75页 |
参考文献 | 第75-78页 |
附录 | 第78-79页 |
致谢 | 第79页 |