有关强化学习的若干问题研究
摘要 | 第1-4页 |
Abstract | 第4-8页 |
1 绪论 | 第8-19页 |
·引言 | 第8-9页 |
·强化学习的发展历史 | 第9-11页 |
·强化学习的研究现状 | 第11-16页 |
·学习任务的建模 | 第11-13页 |
·学习空间的构建 | 第13-14页 |
·学习经验的存储和利用 | 第14页 |
·多目标强化学习算法 | 第14-15页 |
·标准强化学习验证问题 | 第15-16页 |
·应用 | 第16页 |
·目前研究所存在的问题 | 第16-17页 |
·本文的组织结构 | 第17-19页 |
2 强化学习的理论基础 | 第19-26页 |
·引言 | 第19-20页 |
·Q学习算法的基本原理 | 第20-23页 |
·Markov决策过程模型 | 第20页 |
·期望回报函数 | 第20-21页 |
·状态-动作对的Q值函数 | 第21-22页 |
·动作选择机制 | 第22-23页 |
·Q值函数的更新 | 第23页 |
·基本Q学习算法的主要步骤 | 第23-24页 |
·基本Q学习算法的特点和存在的问题 | 第24-25页 |
·本章小结 | 第25-26页 |
3 强化学习中的经验存储和利用 | 第26-39页 |
·引言 | 第26-27页 |
·资格迹 | 第27-29页 |
·前瞻观点 | 第27-28页 |
·后向观点 | 第28-29页 |
·Actor/Critic学习框架 | 第29-30页 |
·Dyna学习框架 | 第30-32页 |
·改进的分阶Dyna-Q(λ)学习算法 | 第32-35页 |
·自适应阶段划分准则 | 第33-34页 |
·动作选择机制和经验利用机制 | 第34页 |
·环境模型的构建和使用 | 第34-35页 |
·改进的分阶Dyna-Q(λ)学习算法的主要步骤 | 第35页 |
·仿真结果 | 第35-38页 |
·本章小结 | 第38-39页 |
4 基于状态空间压缩技术的强化学习方法 | 第39-56页 |
·引言 | 第39-41页 |
·基于状态敏感度的状态空间自主压缩 | 第41-45页 |
·信息熵的基本概念和物理意义 | 第41页 |
·状态敏感度 | 第41-42页 |
·基于状态敏感度的状态空间自主压缩准则 | 第42-43页 |
·基于状态敏感度的动作选择机制 | 第43页 |
·仿真结果 | 第43-45页 |
·基于分层进化函数逼近器的强化学习算法 | 第45-54页 |
·预备知识 | 第45-48页 |
·基于分层进化函数逼近器的强化学习系统框架 | 第48页 |
·评价选择策略 | 第48-49页 |
·分层进化BP网络函数逼近器 | 第49-51页 |
·LEFA-RL算法步骤 | 第51-52页 |
·仿真结果 | 第52-54页 |
·本章小结 | 第54-56页 |
5 一种基于模糊逻辑的多目标强化学习算法 | 第56-67页 |
·引言 | 第56-57页 |
·多目标Markov决策过程模型 | 第57页 |
·基于模糊逻辑的"综合优度"合成 | 第57-61页 |
·偏好信息的引入 | 第58页 |
·Mamdani模糊推理系统 | 第58-59页 |
·"相对优度"的计算 | 第59-61页 |
·"综合优度"的合成 | 第61页 |
·一种基于模糊逻辑的多目标强化学习算法 | 第61-62页 |
·动作选择机制 | 第61页 |
·算法的实现步骤 | 第61-62页 |
·仿真结果 | 第62-66页 |
·本章小结 | 第66-67页 |
6 总结和展望 | 第67-69页 |
致谢 | 第69-70页 |
参考文献 | 第70-77页 |