| 摘要 | 第1-7页 |
| Abstract | 第7-12页 |
| 第1章 绪论 | 第12-24页 |
| ·课题的研究目的和意义 | 第12-13页 |
| ·相关领域研究现状 | 第13-21页 |
| ·具有认知能力的机器人系统 | 第13-16页 |
| ·机器人行为学习研究现状 | 第16-17页 |
| ·认知模型研究现状 | 第17-18页 |
| ·具有认知能力的学习方法 | 第18-21页 |
| ·本文的研究内容 | 第21-22页 |
| ·论文的组织结构 | 第22-24页 |
| 第2章 具有认知能力的智能机器人体系结构 | 第24-38页 |
| ·智能机器人传统范式分类 | 第24-28页 |
| ·分层范式 | 第25页 |
| ·反应范式 | 第25-26页 |
| ·慎思/反应范式 | 第26-27页 |
| ·传统范式分类的依据及存在的问题 | 第27-28页 |
| ·基于智能产生方式对智能机器人范式分类 | 第28-31页 |
| ·具有认知能力的智能机器人体系结构 | 第31-37页 |
| ·认知模型的结构 | 第33-34页 |
| ·认知模型的知识表示 | 第34-35页 |
| ·体系结构中的信息交互和学习机制 | 第35-37页 |
| ·本章小结 | 第37-38页 |
| 第3章 基于GDSOM 的环境路标自组织提取 | 第38-61页 |
| ·移动机器人的感知能力 | 第38-40页 |
| ·机器人传感器信息的分类 | 第38-39页 |
| ·环境特征的知觉过程 | 第39-40页 |
| ·移动机器人的路标识别方法 | 第40-44页 |
| ·环境路标的定义 | 第40-41页 |
| ·自然路标的提取方法 | 第41-44页 |
| ·路标的自组织提取方法 | 第44-52页 |
| ·主动感知行为 | 第44-45页 |
| ·感知-运动协调的实现 | 第45-47页 |
| ·基于动态增长自组织特征图(GDSOM)的路标提取 | 第47-52页 |
| ·实验分析 | 第52-60页 |
| ·机器人实验平台 | 第52-54页 |
| ·路标的检测与识别 | 第54-60页 |
| ·与其它方法的比较 | 第60页 |
| ·本章小结 | 第60-61页 |
| 第4章 基于STAMN 的时空经验学习方法研究 | 第61-94页 |
| ·时空经验的知识表示特点及其记忆结构 | 第61-63页 |
| ·观测驱动的马尔科夫决策过程 | 第63-68页 |
| ·POMDP 及求解算法 | 第64-65页 |
| ·ODMDP 的特点 | 第65-67页 |
| ·ODMDP 问题的求解策略 | 第67-68页 |
| ·时空联想记忆网络 | 第68-78页 |
| ·传统人工神经网络的缺陷 | 第68-70页 |
| ·STAMN 的结构与学习方法 | 第70-78页 |
| ·利用STAMN 实现机器人的空间认知 | 第78-91页 |
| ·利用STAMN 实现空间认知的过程 | 第79-80页 |
| ·简单循环对称环境的实验分析 | 第80-89页 |
| ·复杂循环对称环境的实验分析 | 第89-91页 |
| ·与拓扑地图的区别 | 第91-93页 |
| ·本章小结 | 第93-94页 |
| 第5章 基于认知及强化学习的行为学习方法研究 | 第94-118页 |
| ·具有认知能力的强化学习特点 | 第94-95页 |
| ·具有认知能力的强化学习模型 | 第95-96页 |
| ·强化学习算法的分布式实现 | 第96-99页 |
| ·Q 学习的分布式实现 | 第97-98页 |
| ·Sarsa 算法的分布式实现 | 第98-99页 |
| ·Sarsa ( λ) 算法的分布式实现 | 第99页 |
| ·(K-M)(K-P) Sarsa 算法 | 第99-100页 |
| ·多任务强化学习模型 | 第100-105页 |
| ·意图模块 | 第101-102页 |
| ·回报模块 | 第102-103页 |
| ·行动选择机制 | 第103-104页 |
| ·多任务(K-M)(K-P) Sarsa 算法 | 第104-105页 |
| ·具有认知能力的机器人多任务学习 | 第105-117页 |
| ·具有认知能力的机器人行为结构图 | 第105-106页 |
| ·实验与分析 | 第106-117页 |
| ·本章小结 | 第117-118页 |
| 结论 | 第118-120页 |
| 参考文献 | 第120-128页 |
| 攻读博士学位期间发表的论文 | 第128-129页 |
| 致谢 | 第129页 |