摘要 | 第5-7页 |
Abstract | 第7-8页 |
目录 | 第9-14页 |
第1章 绪论 | 第14-23页 |
1.1 研究背景与意义 | 第14-15页 |
1.2 国外研究现状 | 第15-19页 |
1.2.1 分布式智能模型 | 第16-17页 |
1.2.2 4D/RCS体系结构 | 第17-19页 |
1.3 国内研究现状 | 第19-20页 |
1.4 本文研究工作 | 第20-21页 |
1.5 内容安排 | 第21-23页 |
第2章 分布式体系结构 | 第23-44页 |
2.1 多智能体模型 | 第23-32页 |
2.1.1 多智能体布局 | 第24-25页 |
2.1.2 智能体分类 | 第25-27页 |
2.1.3 多智能体结构 | 第27-32页 |
2.2 多智能体消息流 | 第32-37页 |
2.2.1 消息传递支撑平台 | 第32-34页 |
2.2.2 智能体数据流 | 第34-36页 |
2.2.3 事件和状态 | 第36-37页 |
2.3 实验 | 第37-43页 |
2.3.1 消息传递平台测试 | 第37-40页 |
2.3.2 实际环境中的系统运行测试 | 第40-43页 |
2.4 本章小结 | 第43-44页 |
第3章 策略生成的学习架构 | 第44-61页 |
3.1 马尔可夫决策过程及相关模型 | 第44-48页 |
3.1.1 马尔可夫决策过程 | 第44-46页 |
3.1.2 基于马尔可夫决策过程的规划、行动和学习的集成 | 第46-48页 |
3.2 策略求解——增强学习 | 第48-49页 |
3.3 回报学习——逆增强学习 | 第49-54页 |
3.3.1 逆增强学习原理 | 第52页 |
3.3.2 逆增强学习算法 | 第52-54页 |
3.3.3 逆增强学习的进展 | 第54页 |
3.4 分布式架构下的逆增强学习 | 第54-56页 |
3.4.1 示教特征期望获取 | 第55-56页 |
3.4.2 回报估计 | 第56页 |
3.5 实验 | 第56-60页 |
3.6 本章小结 | 第60-61页 |
第4章 回报特征的自动选择 | 第61-78页 |
4.1 回报特征降维 | 第61-69页 |
4.1.1 原理 | 第61-62页 |
4.1.2 经典的降维方法 | 第62-68页 |
4.1.3 回报特征降维算法 | 第68-69页 |
4.2 实验 | 第69-77页 |
4.3 本章小结 | 第77-78页 |
第5章 总结与展望 | 第78-80页 |
5.1 总结 | 第78页 |
5.2 展望 | 第78-80页 |
参考文献 | 第80-86页 |
攻读硕士学位期间主要研究成果 | 第86-87页 |
致谢 | 第87页 |