基于Agent的多机器人信息融合与协调研究
| 摘要 | 第1-5页 |
| Abstract | 第5-7页 |
| 目录 | 第7-10页 |
| 第一章 绪论 | 第10-33页 |
| ·引言 | 第10-11页 |
| ·多机器人系统中的信息融合 | 第11-14页 |
| ·机器人传感器系统 | 第11-12页 |
| ·机器人多传感器信息融合 | 第12-14页 |
| ·多机器人协调与合作研究现状 | 第14-16页 |
| ·多Agent信息融合与协调的研究现状 | 第16-19页 |
| ·多Agent信息融合 | 第17-18页 |
| ·多Agent协调与合作 | 第18-19页 |
| ·机器人足球及其研究进展 | 第19-24页 |
| ·机器人足球的发展概况 | 第19-20页 |
| ·FIRA机器人足球比赛系统 | 第20-23页 |
| ·机器人足球的关键技术和研究热点 | 第23-24页 |
| ·论文内容安排 | 第24-26页 |
| 参考文献 | 第26-33页 |
| 第二章 多Agent的信息融合模型与协调方法 | 第33-46页 |
| ·引言 | 第33页 |
| ·多Agent信息融合模型 | 第33-38页 |
| ·Agent体系结构 | 第33-35页 |
| ·MAS体系结构 | 第35-37页 |
| ·基于多Agent的信息融合模型 | 第37-38页 |
| ·多Agent协调中的学习与对策 | 第38-43页 |
| ·强化学习 | 第38-41页 |
| ·Markov对策 | 第41-43页 |
| ·小结 | 第43-44页 |
| 参考文献 | 第44-46页 |
| 第三章 基于多Agent的分布式决策 | 第46-65页 |
| ·引言 | 第46页 |
| ·证据推理理论 | 第46-50页 |
| ·基本概念 | 第46-48页 |
| ·Dempster组合规则 | 第48-50页 |
| ·Agent信息模型 | 第50-51页 |
| ·单支置信函数 | 第50页 |
| ·基于证据推理的Agent信息模型 | 第50-51页 |
| ·可传递置信模型 | 第51-54页 |
| ·可传递置信模型的基本结构 | 第51-52页 |
| ·辨识框架的粗分和细化 | 第52-53页 |
| ·Pignistic概率转换 | 第53-54页 |
| ·基于多Agent的分布式决策融合框架及算法 | 第54-62页 |
| ·系统框架 | 第54-55页 |
| ·融合中心 | 第55-57页 |
| ·决策中心 | 第57页 |
| ·仿真算例 | 第57-62页 |
| ·小结 | 第62-63页 |
| 参考文献 | 第63-65页 |
| 第四章 基于分布式强化学习的多Agent协调 | 第65-78页 |
| ·引言 | 第65页 |
| ·一种基于知识的强化函数设计方法 | 第65-69页 |
| ·强化函数的基本设计思想 | 第65-67页 |
| ·基于知识的强化函数 | 第67-68页 |
| ·仿真实验 | 第68-69页 |
| ·MAS中的分布式强化学习 | 第69-71页 |
| ·基于分布式强化学习的多Agent协调模型及算法 | 第71-76页 |
| ·协调级 | 第71-72页 |
| ·行为级 | 第72页 |
| ·强化信息的分配 | 第72页 |
| ·仿真实验 | 第72-76页 |
| ·小结 | 第76-77页 |
| 参考文献 | 第77-78页 |
| 第五章 基于Markov对策的多Agent协调 | 第78-94页 |
| ·引言 | 第78页 |
| ·Nash Q学习 | 第78-79页 |
| ·零和Markov对策和团队Markov对策 | 第79-83页 |
| ·零和Markov对策 | 第79-82页 |
| ·团队Markov对策 | 第82-83页 |
| ·基于Markov对策的多Agent协调 | 第83-91页 |
| ·对策框架 | 第84页 |
| ·Team级对策 | 第84-85页 |
| ·Member级对策 | 第85-86页 |
| ·仿真实验 | 第86-91页 |
| ·小结 | 第91-92页 |
| 参考文献 | 第92-94页 |
| 第六章 总结与展望 | 第94-96页 |
| ·本文工作总结 | 第94-95页 |
| ·未来工作展望 | 第95-96页 |
| 作者发表和录用的文章 | 第96-97页 |
| 致谢 | 第97-98页 |
| 附录 | 第98页 |