基于Agent的多机器人信息融合与协调研究
摘要 | 第1-5页 |
Abstract | 第5-7页 |
目录 | 第7-10页 |
第一章 绪论 | 第10-33页 |
·引言 | 第10-11页 |
·多机器人系统中的信息融合 | 第11-14页 |
·机器人传感器系统 | 第11-12页 |
·机器人多传感器信息融合 | 第12-14页 |
·多机器人协调与合作研究现状 | 第14-16页 |
·多Agent信息融合与协调的研究现状 | 第16-19页 |
·多Agent信息融合 | 第17-18页 |
·多Agent协调与合作 | 第18-19页 |
·机器人足球及其研究进展 | 第19-24页 |
·机器人足球的发展概况 | 第19-20页 |
·FIRA机器人足球比赛系统 | 第20-23页 |
·机器人足球的关键技术和研究热点 | 第23-24页 |
·论文内容安排 | 第24-26页 |
参考文献 | 第26-33页 |
第二章 多Agent的信息融合模型与协调方法 | 第33-46页 |
·引言 | 第33页 |
·多Agent信息融合模型 | 第33-38页 |
·Agent体系结构 | 第33-35页 |
·MAS体系结构 | 第35-37页 |
·基于多Agent的信息融合模型 | 第37-38页 |
·多Agent协调中的学习与对策 | 第38-43页 |
·强化学习 | 第38-41页 |
·Markov对策 | 第41-43页 |
·小结 | 第43-44页 |
参考文献 | 第44-46页 |
第三章 基于多Agent的分布式决策 | 第46-65页 |
·引言 | 第46页 |
·证据推理理论 | 第46-50页 |
·基本概念 | 第46-48页 |
·Dempster组合规则 | 第48-50页 |
·Agent信息模型 | 第50-51页 |
·单支置信函数 | 第50页 |
·基于证据推理的Agent信息模型 | 第50-51页 |
·可传递置信模型 | 第51-54页 |
·可传递置信模型的基本结构 | 第51-52页 |
·辨识框架的粗分和细化 | 第52-53页 |
·Pignistic概率转换 | 第53-54页 |
·基于多Agent的分布式决策融合框架及算法 | 第54-62页 |
·系统框架 | 第54-55页 |
·融合中心 | 第55-57页 |
·决策中心 | 第57页 |
·仿真算例 | 第57-62页 |
·小结 | 第62-63页 |
参考文献 | 第63-65页 |
第四章 基于分布式强化学习的多Agent协调 | 第65-78页 |
·引言 | 第65页 |
·一种基于知识的强化函数设计方法 | 第65-69页 |
·强化函数的基本设计思想 | 第65-67页 |
·基于知识的强化函数 | 第67-68页 |
·仿真实验 | 第68-69页 |
·MAS中的分布式强化学习 | 第69-71页 |
·基于分布式强化学习的多Agent协调模型及算法 | 第71-76页 |
·协调级 | 第71-72页 |
·行为级 | 第72页 |
·强化信息的分配 | 第72页 |
·仿真实验 | 第72-76页 |
·小结 | 第76-77页 |
参考文献 | 第77-78页 |
第五章 基于Markov对策的多Agent协调 | 第78-94页 |
·引言 | 第78页 |
·Nash Q学习 | 第78-79页 |
·零和Markov对策和团队Markov对策 | 第79-83页 |
·零和Markov对策 | 第79-82页 |
·团队Markov对策 | 第82-83页 |
·基于Markov对策的多Agent协调 | 第83-91页 |
·对策框架 | 第84页 |
·Team级对策 | 第84-85页 |
·Member级对策 | 第85-86页 |
·仿真实验 | 第86-91页 |
·小结 | 第91-92页 |
参考文献 | 第92-94页 |
第六章 总结与展望 | 第94-96页 |
·本文工作总结 | 第94-95页 |
·未来工作展望 | 第95-96页 |
作者发表和录用的文章 | 第96-97页 |
致谢 | 第97-98页 |
附录 | 第98页 |