基于值函数逼近与状态空间分解的增强学习方法研究
摘要 | 第1-10页 |
Abstract | 第10-12页 |
第一章 绪论 | 第12-23页 |
·增强学习概述 | 第12-13页 |
·值函数逼近的研究现状与发展趋势 | 第13-16页 |
·值函数逼近概述 | 第13-14页 |
·基于值函数逼近的增强学习研究现状 | 第14-16页 |
·基于值函数逼近的增强学习发展趋势 | 第16页 |
·结构化增强学习概述与研究现状 | 第16-19页 |
·结构化增强学习概述 | 第16-17页 |
·结构化增强学习研究现状 | 第17-19页 |
·结构化增强学习发展趋势 | 第19页 |
·增强学习在移动机器人导航控制中的应用 | 第19-22页 |
·移动机器人的导航控制 | 第19-20页 |
·增强学习在移动机器人控制中的应用 | 第20-22页 |
·本文主要内容与成果 | 第22-23页 |
第二章 基于图拉普拉斯算子的近似策略迭代方法研究 | 第23-49页 |
·Markov 决策过程和线性值函数逼近 | 第23-28页 |
·Markov 决策过程(MDP) | 第24-25页 |
·线性值函数逼近 | 第25-26页 |
·LSPI 算法 | 第26-28页 |
·基于图拉普拉斯算子的值函数逼近 | 第28-32页 |
·MDP 与图拉普拉斯算子 | 第28-30页 |
·RPI 算法中基函数的构建 | 第30-31页 |
·RPI 算法框架 | 第31-32页 |
·基于聚类的RPI 增强学习方法 | 第32-36页 |
·聚类分析 | 第33-34页 |
·基于k-均值聚类的RPI 算法 | 第34-36页 |
·仿真结果与分析 | 第36-43页 |
·仿真问题描述 | 第36-38页 |
·仿真结果与分析 | 第38-43页 |
·倒立摆学习控制实验 | 第43-48页 |
·倒立摆实时控制系统 | 第43-44页 |
·实验结果 | 第44-48页 |
·本章小结 | 第48-49页 |
第三章 基于状态空间分解的结构化增强学习方法研究 | 第49-63页 |
·结构化增强学习概述 | 第49-54页 |
·SMDP 与结构化增强学习 | 第49-51页 |
·结构化增强学习典型算法 | 第51-54页 |
·基于RPI 的结构化增强学习算法 | 第54-59页 |
·基于值函数的二叉树状态空间分解 | 第54-56页 |
·基于RPI 的结构化增强学习算法描述 | 第56-59页 |
·仿真结果与分析 | 第59-62页 |
·仿真设计 | 第59页 |
·仿真结果 | 第59-62页 |
·本章小结 | 第62-63页 |
第四章 基于增强学习的移动机器人自主避障控制 | 第63-73页 |
·移动机器人自主避障控制 | 第63-66页 |
·移动机器人自主避障导航控制 | 第63-65页 |
·移动机器人的自主避障问题建模 | 第65-66页 |
·基于RPI 算法的自主避障方法 | 第66-67页 |
·滚动窗口路径规划方法 | 第66页 |
·基于改进RPI 算法的反应式导航控制方法 | 第66-67页 |
·基于改进RPI 算法的自主避障实验 | 第67-71页 |
·基于移动机器人自主避障实验 | 第67-70页 |
·自主避障实验结果与分析 | 第70-71页 |
·本章小结 | 第71-73页 |
第五章 结论与展望 | 第73-75页 |
致谢 | 第75-76页 |
参考文献 | 第76-83页 |
作者在学期间取得的学术成果 | 第83-84页 |
附录A 缩写词全称对照 | 第84页 |