D2D网络中基于强化学习的路由选择与资源分配算法研究
摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第一章 绪论 | 第11-17页 |
1.1 课题背景与意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-13页 |
1.3 本文的研究工作 | 第13-15页 |
1.4 论文的结构安排 | 第15-16页 |
1.5 本章小结 | 第16-17页 |
第二章 强化学习理论与D2D技术概述 | 第17-33页 |
2.1 强化学习理论及方法 | 第17-23页 |
2.1.1 强化学习概述 | 第17-19页 |
2.1.2 强化学习主要算法 | 第19-21页 |
2.1.3 值函数近似与深度Q学习 | 第21-22页 |
2.1.4 深度确定性策略梯度 | 第22-23页 |
2.2 D2D通信概述 | 第23-30页 |
2.2.1 D2D通信介绍 | 第23-24页 |
2.2.2 D2D应用 | 第24-25页 |
2.2.3 D2D网络关键技术 | 第25-30页 |
2.3 基于强化学习的动态D2D网络场景分析 | 第30-31页 |
2.4 本章小结 | 第31-33页 |
第三章 基于强化学习的多跳D2D路由算法 | 第33-51页 |
3.1 引言 | 第33页 |
3.2 QoS路由问题模型 | 第33-35页 |
3.3 学习模型 | 第35-40页 |
3.3.1 网络模型 | 第36-38页 |
3.3.2 用户模型 | 第38-40页 |
3.4 分布式强化学习路由算法 | 第40-42页 |
3.4.1 多Agent同步机制 | 第40-41页 |
3.4.2 分布式强化学习算法 | 第41-42页 |
3.5 仿真结果分析 | 第42-49页 |
3.6 本章小结 | 第49-51页 |
第四章 基于强化学习的D2D单信道资源复用技术 | 第51-77页 |
4.1 引言 | 第51-52页 |
4.2 系统模型与问题模型 | 第52-55页 |
4.2.1 系统模型 | 第52-54页 |
4.2.2 问题模型 | 第54-55页 |
4.3 基于深度Q学习的资源分配算法 | 第55-67页 |
4.3.1 学习模型 | 第55-58页 |
4.3.2 基于DQN的资源分配算法原理 | 第58-62页 |
4.3.3 仿真实现及结果分析 | 第62-67页 |
4.4 基于深度确定性策略梯度的资源分配算法 | 第67-75页 |
4.4.1 基于DDPG的资源分配算法原理 | 第68-72页 |
4.4.2 仿真实现及结果分析 | 第72-75页 |
4.5 本章小结 | 第75-77页 |
第五章 基于强化学习的D2D多信道资源复用技术 | 第77-83页 |
5.1 引言 | 第77页 |
5.2 问题模型 | 第77-78页 |
5.3 基于DDPG的多信道资源分配算法 | 第78-80页 |
5.4 仿真实现与结果分析 | 第80-82页 |
5.5 本章小结 | 第82-83页 |
第六章 总结和展望 | 第83-85页 |
6.1 研究工作总结 | 第83-84页 |
6.2 工作展望 | 第84-85页 |
参考文献 | 第85-89页 |
致谢 | 第89-91页 |
攻读学位期间发表的学术论文目录 | 第91页 |