摘要 | 第7-8页 |
abstract | 第8页 |
第1章 绪论 | 第12-18页 |
1.1 课题研究背景及意义 | 第12页 |
1.2 国内外研究现状 | 第12-16页 |
1.2.1 国内外温室大棚技术研究现状 | 第12-13页 |
1.2.2 卷积神经网络的发展历程与应用现状 | 第13-14页 |
1.2.3 深度学习工具 | 第14-16页 |
1.3 本文研究目标及研究内容 | 第16-17页 |
1.3.1 本文研究目标 | 第16页 |
1.3.2 本文研究主要内容 | 第16-17页 |
1.4 章节安排 | 第17-18页 |
第2章 数据来源 | 第18-23页 |
2.1 引言 | 第18页 |
2.2 数据获取 | 第18-19页 |
2.3 输入数据features | 第19-22页 |
2.3.1 数据整理 | 第20页 |
2.3.2 独热码(one-hot)处理label问题 | 第20-21页 |
2.3.3 数据整合 | 第21-22页 |
2.4 本章小结 | 第22-23页 |
第3章 深度学习算法的研究 | 第23-54页 |
3.1 神经网络算法结构 | 第23-24页 |
3.2 卷积神经网络的设计过程 | 第24-30页 |
3.2.1 Sobel算子 | 第24页 |
3.2.2 pading(填充) | 第24-25页 |
3.2.3 pooling(池化) | 第25-26页 |
3.2.4 卷积神经网络整体结构 | 第26-29页 |
3.2.5 卷积神经网络的反向传播 | 第29-30页 |
3.3 损失函数的定义方法 | 第30-36页 |
3.3.1 损失函数的基本意义 | 第30页 |
3.3.2 二次代价函数 | 第30-32页 |
3.3.3 交叉熵损失函数 | 第32-35页 |
3.3.4 损失函数选取结果分析 | 第35-36页 |
3.4 softmax的基本原理 | 第36-37页 |
3.5 激活函数 | 第37-41页 |
3.5.1 激活函数的基本概念 | 第37-39页 |
3.5.2 不同激活函数的适用条件 | 第39-41页 |
3.6 梯度下降算法 | 第41-44页 |
3.6.1 批量梯度下降 | 第42页 |
3.6.2 随机梯度下降 | 第42-44页 |
3.6.3 Mini梯度下降 | 第44页 |
3.7 函数梯度传递方式 | 第44-45页 |
3.8 cntk中的网络优化方法及概念 | 第45-47页 |
3.8.1 动态学习率 | 第45-46页 |
3.8.2 冲量 | 第46-47页 |
3.9 过拟合问题 | 第47-53页 |
3.9.1 内部协变量平移 | 第49-50页 |
3.9.2 批量归一化 | 第50页 |
3.9.3 BN算法的基本原理 | 第50-52页 |
3.9.4 CNTK中的BN | 第52-53页 |
3.10 本章小结 | 第53-54页 |
第4章 系统网络的参数配置以及训练 | 第54-61页 |
4.1 引言 | 第54页 |
4.2 网络编译平台配置 | 第54-56页 |
4.2.1 vs2015简介 | 第54-55页 |
4.2.2 环境变量的配置 | 第55-56页 |
4.3 NDL(Network Definition Language) | 第56页 |
4.4 网络的代码实现 | 第56-59页 |
4.5 网络训练结果与超参数的设置分析 | 第59-60页 |
4.6 本章小结 | 第60-61页 |
第5章 结果测试与分析总结 | 第61-69页 |
5.1 温室大棚结构的介绍 | 第61页 |
5.2 温室大棚系统的介绍 | 第61-64页 |
5.2.1 环境信息采集模块 | 第62页 |
5.2.2 数据监控处理模块 | 第62-63页 |
5.2.4 自动控制软件模块 | 第63-64页 |
5.3 控制情况分析 | 第64-67页 |
5.4 结果分析 | 第67-68页 |
5.5 本章小结 | 第68-69页 |
结论 | 第69-70页 |
参考文献 | 第70-73页 |
攻读硕士学位期间发表的论文和取得的科研成果 | 第73-74页 |
致谢 | 第74-75页 |