摘要 | 第1-6页 |
Abstract | 第6-11页 |
1 绪论 | 第11-23页 |
·空中拦截的重要性 | 第11-12页 |
·空中拦截制导方法的发展状况 | 第12-20页 |
·古典控制的导弹直接拦截打击空中目标 | 第12-15页 |
·最优制导规律 | 第15-19页 |
·人工智能方法 | 第19-20页 |
·设计方案选择及主要依据 | 第20-23页 |
2 增强学习 | 第23-33页 |
·增强学习的特点和概念 | 第23-25页 |
·增强学习的发展历史 | 第25-26页 |
·增强学习的方法 | 第26-31页 |
·非联想算法(Non-associative)增强学习 | 第26-27页 |
·联想(Associative)增强学习 | 第27-28页 |
·延时增强学习算法 | 第28-31页 |
·近年来完善的增强学习算法 | 第31页 |
·增强学习的应用 | 第31-33页 |
·在游戏比赛中的应用 | 第31-32页 |
·在控制系统中应用 | 第32页 |
·在机器人中的应用 | 第32页 |
·在调度管理中应用 | 第32-33页 |
3 空中拦截智能控制的建模及具体实现 | 第33-45页 |
·空中拦截问题的描述 | 第33-35页 |
·基于Q-学习的微分对策求解 | 第35-42页 |
·主要定理 | 第35-36页 |
·Q-学习算法及其收敛性定理 | 第36-37页 |
·基于微分对策理论的Q-学习算法 | 第37-39页 |
·回报函数(Reward Function)定义 | 第39-40页 |
·评价函数(Value Function)的神经网络近似 | 第40-42页 |
·空中拦截对策准则的建立 | 第42-43页 |
·基于Q-学习空中拦截智能算法 | 第43-45页 |
4 基于Q-学习的空中拦截仿真试验 | 第45-53页 |
·基于Q-学习的三维常速率空中拦截仿真试验 | 第45-46页 |
·三维常速率空中拦截建模 | 第45-46页 |
·控制量的选择库 | 第46-49页 |
·评价函数的神经网络实现 | 第49-51页 |
·控制量的确定 | 第51页 |
·三维常速率空中拦截仿真试验 | 第51-53页 |
5 微分对策的Q-学习理论扩展及空中拦截仿真 | 第53-56页 |
·微分对策的理论扩展 | 第53页 |
·微分对策的Q-学习扩展 | 第53-54页 |
·控制量的确定 | 第54页 |
·仿真试验 | 第54-56页 |
结论 | 第56-58页 |
参考文献 | 第58-63页 |
在学研究成果 | 第63-64页 |
致谢 | 第64页 |