摘要 | 第1-4页 |
ABSTRACT | 第4-7页 |
1 绪论 | 第7-14页 |
·课题选题背景 | 第7页 |
·移动机器人避障规划定义及特点 | 第7-8页 |
·机器人避障规划方法概述 | 第8-11页 |
·基于环境模型的避障规划方法 | 第8-10页 |
·基于行为的避障规划方法 | 第10-11页 |
·移动机器人避障规划发展趋势 | 第11-12页 |
·课题研究意义 | 第12页 |
·本文主要内容 | 第12-14页 |
2 基于混合式架构的自主移动机器人避障规划平台 | 第14-22页 |
·引言 | 第14页 |
·自主移动机器人的基本运动结构 | 第14-15页 |
·Khepera II 自主移动机器人系统概述 | 第15-21页 |
·Khepera II 自主移动机器人平台 | 第15-16页 |
·Khepera II 自主移动机器人的体系结构 | 第16-21页 |
·机器人运动控制模块 | 第21页 |
·本章小结 | 第21-22页 |
3 学习算法研究 | 第22-30页 |
·激励学习的特点 | 第22-23页 |
·Markov 决策过程与激励学习系统 | 第23-25页 |
·Markov 决策过程 | 第23页 |
·激励学习系统的结构模型 | 第23-24页 |
·激励学习系统的基本要素 | 第24-25页 |
·蒙特卡洛算法(Monte Carlo) | 第25-26页 |
·瞬时差分算法 | 第26-27页 |
·Q 学习算法 | 第27-29页 |
·Q 学习基本算法 | 第27-28页 |
·Q 学习算法的收敛性分析 | 第28页 |
·Q 函数实现方式 | 第28-29页 |
·本章小结 | 第29-30页 |
4 基于 Q 学习的自主移动机器人避障系统设计 | 第30-35页 |
·基于 Q 学习的机器人避障系统框架 | 第30页 |
·机器人 Q 学习要素设计 | 第30-32页 |
·环境状态表示 | 第30-31页 |
·动作空间表示 | 第31-32页 |
·奖赏函数设计 | 第32页 |
·动作选择策略 | 第32页 |
·基于 Q 学习的机器人避障系统设计 | 第32-34页 |
·本章小结 | 第34-35页 |
5 基于 RBF 神经网络的 Q 学习避障算法 | 第35-50页 |
·RBF 神经网络的结构及基本原理 | 第35-37页 |
·RBF 神经网络的结构 | 第36页 |
·RBF 神经网络基本原理 | 第36-37页 |
·RBF 神经网络学习方法 | 第37-38页 |
·RBF 神经网络隐含层学习 | 第37页 |
·RBF 神经网络输出层的权值学习 | 第37-38页 |
·基于 RBF 神经网络的 Q 学习避障系统设计 | 第38-39页 |
·RBF 神经网络的输入输出 | 第38页 |
·强化函数定义 | 第38页 |
·样本集生成 | 第38-39页 |
·基于 RBF 神经网络的 Q 学习机器人避障实验 | 第39-49页 |
·基于 RBF 神经网络的 Q 学习避障算法 | 第39-40页 |
·仿真结果及分析 | 第40-49页 |
·本章小结 | 第49-50页 |
6 总结与展望 | 第50-52页 |
·总结 | 第50页 |
·进一步的工作展望 | 第50-52页 |
致谢 | 第52-53页 |
参考文献 | 第53-56页 |
附录 | 第56页 |
A. 作者在攻读学位期间发表的论文目录 | 第56页 |