有关强化学习的若干问题研究
| 摘要 | 第1-4页 |
| Abstract | 第4-8页 |
| 1 绪论 | 第8-19页 |
| ·引言 | 第8-9页 |
| ·强化学习的发展历史 | 第9-11页 |
| ·强化学习的研究现状 | 第11-16页 |
| ·学习任务的建模 | 第11-13页 |
| ·学习空间的构建 | 第13-14页 |
| ·学习经验的存储和利用 | 第14页 |
| ·多目标强化学习算法 | 第14-15页 |
| ·标准强化学习验证问题 | 第15-16页 |
| ·应用 | 第16页 |
| ·目前研究所存在的问题 | 第16-17页 |
| ·本文的组织结构 | 第17-19页 |
| 2 强化学习的理论基础 | 第19-26页 |
| ·引言 | 第19-20页 |
| ·Q学习算法的基本原理 | 第20-23页 |
| ·Markov决策过程模型 | 第20页 |
| ·期望回报函数 | 第20-21页 |
| ·状态-动作对的Q值函数 | 第21-22页 |
| ·动作选择机制 | 第22-23页 |
| ·Q值函数的更新 | 第23页 |
| ·基本Q学习算法的主要步骤 | 第23-24页 |
| ·基本Q学习算法的特点和存在的问题 | 第24-25页 |
| ·本章小结 | 第25-26页 |
| 3 强化学习中的经验存储和利用 | 第26-39页 |
| ·引言 | 第26-27页 |
| ·资格迹 | 第27-29页 |
| ·前瞻观点 | 第27-28页 |
| ·后向观点 | 第28-29页 |
| ·Actor/Critic学习框架 | 第29-30页 |
| ·Dyna学习框架 | 第30-32页 |
| ·改进的分阶Dyna-Q(λ)学习算法 | 第32-35页 |
| ·自适应阶段划分准则 | 第33-34页 |
| ·动作选择机制和经验利用机制 | 第34页 |
| ·环境模型的构建和使用 | 第34-35页 |
| ·改进的分阶Dyna-Q(λ)学习算法的主要步骤 | 第35页 |
| ·仿真结果 | 第35-38页 |
| ·本章小结 | 第38-39页 |
| 4 基于状态空间压缩技术的强化学习方法 | 第39-56页 |
| ·引言 | 第39-41页 |
| ·基于状态敏感度的状态空间自主压缩 | 第41-45页 |
| ·信息熵的基本概念和物理意义 | 第41页 |
| ·状态敏感度 | 第41-42页 |
| ·基于状态敏感度的状态空间自主压缩准则 | 第42-43页 |
| ·基于状态敏感度的动作选择机制 | 第43页 |
| ·仿真结果 | 第43-45页 |
| ·基于分层进化函数逼近器的强化学习算法 | 第45-54页 |
| ·预备知识 | 第45-48页 |
| ·基于分层进化函数逼近器的强化学习系统框架 | 第48页 |
| ·评价选择策略 | 第48-49页 |
| ·分层进化BP网络函数逼近器 | 第49-51页 |
| ·LEFA-RL算法步骤 | 第51-52页 |
| ·仿真结果 | 第52-54页 |
| ·本章小结 | 第54-56页 |
| 5 一种基于模糊逻辑的多目标强化学习算法 | 第56-67页 |
| ·引言 | 第56-57页 |
| ·多目标Markov决策过程模型 | 第57页 |
| ·基于模糊逻辑的"综合优度"合成 | 第57-61页 |
| ·偏好信息的引入 | 第58页 |
| ·Mamdani模糊推理系统 | 第58-59页 |
| ·"相对优度"的计算 | 第59-61页 |
| ·"综合优度"的合成 | 第61页 |
| ·一种基于模糊逻辑的多目标强化学习算法 | 第61-62页 |
| ·动作选择机制 | 第61页 |
| ·算法的实现步骤 | 第61-62页 |
| ·仿真结果 | 第62-66页 |
| ·本章小结 | 第66-67页 |
| 6 总结和展望 | 第67-69页 |
| 致谢 | 第69-70页 |
| 参考文献 | 第70-77页 |