载波聚合下基于强化学习的资源分配研究
摘要 | 第5-6页 |
abstract | 第6-7页 |
略缩词表 | 第13-14页 |
第一章 绪论 | 第14-18页 |
1.1 移动通信发展 | 第14-15页 |
1.2 论文研究背景 | 第15-16页 |
1.2.1 载波聚合的概述 | 第15-16页 |
1.2.2 强化学习的概述 | 第16页 |
1.2.3 研究现状 | 第16页 |
1.3 本文内容的结构安排 | 第16-18页 |
第二章 载波聚合和强化学习基础理论 | 第18-30页 |
2.1 载波聚合介绍 | 第18-22页 |
2.1.1 载波聚合的方式 | 第19-20页 |
2.1.2 载波聚合的应用场景 | 第20-22页 |
2.2 强化学习介绍 | 第22-24页 |
2.2.1 单智能Agent强化学习 | 第22-23页 |
2.2.2 多智能Agent联合协作强化学习 | 第23-24页 |
2.3 梯度强化学习理论基础 | 第24-28页 |
2.3.1 人工神经网络的模型 | 第24-25页 |
2.3.2 梯度强化学习的反向传播 | 第25-26页 |
2.3.3 梯度强化学习的梯度下降 | 第26-27页 |
2.3.4 梯度强化学习的输出 | 第27-28页 |
2.4 本章小节 | 第28-30页 |
第三章 载波聚合下基于梯度强化学习的资源分配 | 第30-50页 |
3.1 频谱复用技术 | 第30-35页 |
3.1.1 频谱资源分配介绍 | 第32页 |
3.1.2 静态频谱分配 | 第32-34页 |
3.1.3 动态频谱分配 | 第34-35页 |
3.2 载波聚合下的使用强化学习进行资源块调度 | 第35-42页 |
3.2.1 梯度强化学习单个agent学习过程 | 第37-41页 |
3.2.2 多强化学习实体的学习过程 | 第41-42页 |
3.3 系统仿真模型介绍和仿真结果 | 第42-49页 |
3.4 本章小结 | 第49-50页 |
第四章 载波聚合下基于Q学习的资源调度 | 第50-70页 |
4.1 Q学习算法 | 第50-58页 |
4.1.1 马尔可夫决策 | 第52-54页 |
4.1.2 动态规划 | 第54-55页 |
4.1.3 蒙特卡罗方法 | 第55-56页 |
4.1.4 时序差分学习 | 第56-57页 |
4.1.5 Q学习 | 第57-58页 |
4.2 基于Q学习的小区内资源调度 | 第58-66页 |
4.2.1 系统背景 | 第58-60页 |
4.2.2 系统模型和问题映射 | 第60-63页 |
4.2.3 算法描述 | 第63-66页 |
4.3 仿真结果 | 第66-69页 |
4.4 本章小结 | 第69-70页 |
第五章 总结及展望 | 第70-72页 |
5.1 本文总结 | 第70页 |
5.2 下一步工作 | 第70-72页 |
致谢 | 第72-73页 |
参考文献 | 第73-77页 |
攻读硕士期间取得的研究成果 | 第77-78页 |
个人简历 | 第78-79页 |