| 摘要 | 第1-6页 |
| Abstract | 第6-11页 |
| 1 绪论 | 第11-23页 |
| ·空中拦截的重要性 | 第11-12页 |
| ·空中拦截制导方法的发展状况 | 第12-20页 |
| ·古典控制的导弹直接拦截打击空中目标 | 第12-15页 |
| ·最优制导规律 | 第15-19页 |
| ·人工智能方法 | 第19-20页 |
| ·设计方案选择及主要依据 | 第20-23页 |
| 2 增强学习 | 第23-33页 |
| ·增强学习的特点和概念 | 第23-25页 |
| ·增强学习的发展历史 | 第25-26页 |
| ·增强学习的方法 | 第26-31页 |
| ·非联想算法(Non-associative)增强学习 | 第26-27页 |
| ·联想(Associative)增强学习 | 第27-28页 |
| ·延时增强学习算法 | 第28-31页 |
| ·近年来完善的增强学习算法 | 第31页 |
| ·增强学习的应用 | 第31-33页 |
| ·在游戏比赛中的应用 | 第31-32页 |
| ·在控制系统中应用 | 第32页 |
| ·在机器人中的应用 | 第32页 |
| ·在调度管理中应用 | 第32-33页 |
| 3 空中拦截智能控制的建模及具体实现 | 第33-45页 |
| ·空中拦截问题的描述 | 第33-35页 |
| ·基于Q-学习的微分对策求解 | 第35-42页 |
| ·主要定理 | 第35-36页 |
| ·Q-学习算法及其收敛性定理 | 第36-37页 |
| ·基于微分对策理论的Q-学习算法 | 第37-39页 |
| ·回报函数(Reward Function)定义 | 第39-40页 |
| ·评价函数(Value Function)的神经网络近似 | 第40-42页 |
| ·空中拦截对策准则的建立 | 第42-43页 |
| ·基于Q-学习空中拦截智能算法 | 第43-45页 |
| 4 基于Q-学习的空中拦截仿真试验 | 第45-53页 |
| ·基于Q-学习的三维常速率空中拦截仿真试验 | 第45-46页 |
| ·三维常速率空中拦截建模 | 第45-46页 |
| ·控制量的选择库 | 第46-49页 |
| ·评价函数的神经网络实现 | 第49-51页 |
| ·控制量的确定 | 第51页 |
| ·三维常速率空中拦截仿真试验 | 第51-53页 |
| 5 微分对策的Q-学习理论扩展及空中拦截仿真 | 第53-56页 |
| ·微分对策的理论扩展 | 第53页 |
| ·微分对策的Q-学习扩展 | 第53-54页 |
| ·控制量的确定 | 第54页 |
| ·仿真试验 | 第54-56页 |
| 结论 | 第56-58页 |
| 参考文献 | 第58-63页 |
| 在学研究成果 | 第63-64页 |
| 致谢 | 第64页 |