摘要 | 第4-6页 |
abstract | 第6-7页 |
第1章 引言 | 第15-30页 |
1.1 研究背景 | 第15-16页 |
1.2 课题组前期工作 | 第16-21页 |
1.3 国内外研究现状及趋势 | 第21-28页 |
1.3.1 混合动力电动汽车能量管理国内外研究现状 | 第21-27页 |
1.3.2 深度强化学习国内外研究现状 | 第27-28页 |
1.4 课题来源及主要研究内容 | 第28-30页 |
第2章 混合动力电动汽车控制系统设计 | 第30-48页 |
2.1 混合动力电动汽车原型车及仿真模型建立 | 第30-33页 |
2.2 控制系统组成及CAN网络拓扑 | 第33-34页 |
2.3 整车控制器开发过程 | 第34-35页 |
2.4 整车控制器硬件设计 | 第35-44页 |
2.4.1 控制核心模块 | 第36页 |
2.4.2 电源模块 | 第36-38页 |
2.4.3 信号处理模块 | 第38-40页 |
2.4.4 功率驱动模块 | 第40-41页 |
2.4.5 通信接口模块 | 第41-42页 |
2.4.6 保护设计 | 第42-44页 |
2.5 整车控制器策略及软件设计 | 第44-46页 |
2.5.1 整车控制器控制策略设计 | 第44-45页 |
2.5.2 自动代码生成与代码集成 | 第45-46页 |
2.5.3 整车控制器标定及实车应用 | 第46页 |
2.6 本章小结 | 第46-48页 |
第3章 基于模糊Q学习的能量管理策略 | 第48-65页 |
3.1 能量管理问题建模 | 第48-49页 |
3.2 基于模糊Q学习的能量管理策略的建立 | 第49-58页 |
3.2.1 模糊Q学习算法的基本思路 | 第49-51页 |
3.2.2 估计Q函数的神经网络 | 第51-54页 |
3.2.3 模糊参数调整及控制动作输出 | 第54-55页 |
3.2.4 算法实现 | 第55-58页 |
3.3 基于模糊Q学习能量管理策略的仿真分析 | 第58-64页 |
3.3.1 UDDS工况下的仿真实验 | 第58-63页 |
3.3.2 NEDC工况下的仿真实验 | 第63-64页 |
3.4 本章小结 | 第64-65页 |
第4章 基于深度强化学习的能量管理策略 | 第65-81页 |
4.1 基于优化的能量管理策略 | 第65-66页 |
4.2 深度强化学习算法 | 第66-69页 |
4.3 基于深度强化学习能量管理策略 | 第69-73页 |
4.3.1 关键概念 | 第69-70页 |
4.3.2 拟合Q函数的深度网络 | 第70-71页 |
4.3.3 DQN算法设计及在线应用 | 第71-73页 |
4.4 基于DQN的仿真实验分析 | 第73-80页 |
4.4.1 离线训练 | 第73-76页 |
4.4.2 在线训练 | 第76-80页 |
4.5 本章小结 | 第80-81页 |
第5章 基于深度确定性策略梯度的能量管理策略 | 第81-97页 |
5.1 深度确定性策略梯度算法 | 第81-84页 |
5.2 基于DDPG算法的能量管理策略框架及设计 | 第84-88页 |
5.2.1 关键概念 | 第84-85页 |
5.2.2 基于DDPG算法的深度网络设计 | 第85-86页 |
5.2.3 基于DDPG算法的能量管理策略的计算过程 | 第86-88页 |
5.3 基于DDPG的能量管理策略仿真实验分析 | 第88-95页 |
5.3.1 离线训练 | 第88-92页 |
5.3.2 在线学习 | 第92-95页 |
5.4 基于深度网络的能量管理策略硬件实现讨论 | 第95-96页 |
5.5 本章小结 | 第96-97页 |
第6章 结语 | 第97-101页 |
6.1 全文总结 | 第97-98页 |
6.2 论文创新点 | 第98-99页 |
6.3 研究展望 | 第99-101页 |
参考文献 | 第101-109页 |
致谢 | 第109-111页 |
作者简历及攻读学位期间发表的学术论文与研究成果 | 第111-112页 |