| 中文摘要 | 第1-5页 |
| Abstract | 第5-9页 |
| 第一章 引言 | 第9-14页 |
| ·问题的提出 | 第9-10页 |
| ·国内外研究现状 | 第10-12页 |
| ·主要创新性工作 | 第12-13页 |
| ·内容结构安排 | 第13-14页 |
| 第二章 强化学习基础理论及 RoboCup 概述 | 第14-26页 |
| ·强化学习原理 | 第14-16页 |
| ·强化学习模型和马尔可夫决策过程 | 第14-15页 |
| ·强化学习的四个要素 | 第15-16页 |
| ·强化学习的主要算法 | 第16-21页 |
| ·TD 算法 | 第16-18页 |
| ·Q-Learning 算法 | 第18-19页 |
| ·Sarsa 学习算法 | 第19-20页 |
| ·R-Learning 算法 | 第20-21页 |
| ·多 Agent 强化学习 | 第21-22页 |
| ·机器人足球 RoboCup | 第22-25页 |
| ·仿真机器人足球平台 | 第23-24页 |
| ·仿真 RoboCup 的特点与意义 | 第24-25页 |
| ·本章小结 | 第25-26页 |
| 第三章 非累积奖赏强化学习在射门训练的应用研究 | 第26-35页 |
| ·累积立即奖赏值形式 | 第26-27页 |
| ·非累积立即奖赏形式 | 第27-29页 |
| ·非累积立即奖赏强化学习算法和框架 | 第29-32页 |
| ·基于折扣累积回报的 TD 学习、Sarsa 学习和 Q 学习 | 第29-30页 |
| ·基于非累积立即奖赏的 TD 学习、Sarsa 学习和 Q 学习 | 第30-31页 |
| ·包含非累积立即奖赏的强化学习框架 | 第31-32页 |
| ·RoboCup 1 对 1 射门训练实验 | 第32-34页 |
| ·本章小结 | 第34-35页 |
| 第四章 基于 Keepaway 应用的改进平均奖赏强化学习 | 第35-44页 |
| ·平均奖赏强化学习 | 第35-36页 |
| ·Keepaway 3 对 2 | 第36-38页 |
| ·改进的平均奖赏强化学习 | 第38-42页 |
| ·改进的平均奖赏值 | 第38-39页 |
| ·BP 神经网络泛化 | 第39-42页 |
| ·实验结果和分析 | 第42-43页 |
| ·本章小结 | 第43-44页 |
| 第五章 一种最大集合期望损失的多目标 Sarsa(λ )算法 | 第44-59页 |
| ·多目标强化学习 | 第44-46页 |
| ·多目标问题形式化 | 第44-45页 |
| ·多目标强化学习基础原理 | 第45-46页 |
| ·LRGM-Sarsa( λ )算法 | 第46-54页 |
| ·多目标 LRGM 算法 | 第46-47页 |
| ·单目标改进的 Sarsa( λ )算法 | 第47-50页 |
| ·算法收敛性证明 | 第50-54页 |
| ·实验结果和分析 | 第54-58页 |
| ·Shoot 2 对 2 局部训练 | 第54-55页 |
| ·数据结果及分析 | 第55-58页 |
| ·本章小结 | 第58-59页 |
| 第六章 总结与展望 | 第59-61页 |
| ·工作总结 | 第59-60页 |
| ·工作展望 | 第60-61页 |
| 参考文献 | 第61-66页 |
| 攻读硕士期间发表(录用)的论文和参加的科研项目 | 第66-67页 |
| 致谢 | 第67-68页 |