游戏人工智能关键技术研究与应用
摘要 | 第4-5页 |
ABSTRACT | 第5页 |
目录 | 第6-9页 |
第一章 绪论 | 第9-16页 |
1.1 研究背景 | 第9-12页 |
1.1.1 人工智能与游戏人工智能 | 第9-10页 |
1.1.2 不同类型的游戏人工智能 | 第10页 |
1.1.3 游戏引擎与游戏人工智能 | 第10-12页 |
1.2 研究的现状与未来 | 第12-14页 |
1.2.1 游戏人工智能研究的现状 | 第12-13页 |
1.2.2 游戏人工智能研究的未来 | 第13-14页 |
1.3 论文的研究内容 | 第14-15页 |
1.4 论文的主要工作及章节安排 | 第15-16页 |
第二章 行为树技术的研究与分析 | 第16-28页 |
2.1 引言 | 第16页 |
2.2 行为树基本概念 | 第16-21页 |
2.2.1 行为树 | 第16-17页 |
2.2.2 行为节点 | 第17-18页 |
2.2.3 组合节点 | 第18页 |
2.2.4 前提节点 | 第18-19页 |
2.2.5 带优先级的选择节点 | 第19页 |
2.2.6 不带优先级的选择节点 | 第19-20页 |
2.2.7 带权值的选择节点 | 第20页 |
2.2.8 组合节点的状态 | 第20-21页 |
2.3 从有限状态机到行为树 | 第21-24页 |
2.3.1 转换到特定状态 | 第21页 |
2.3.2 转换到不同状态 | 第21-22页 |
2.3.3 转换到多个状态 | 第22-23页 |
2.3.4 循环跳转 | 第23-24页 |
2.4 共享节点行为树 | 第24-26页 |
2.4.1 节点构成 | 第24-26页 |
2.4.2 复合节点 | 第26页 |
2.5 机器学习与行为树 | 第26-27页 |
2.6 本章小结 | 第27-28页 |
第三章 基于Q学习算法的行为树模型 | 第28-39页 |
3.1 引言 | 第28页 |
3.2 Q学习算法 | 第28-29页 |
3.3 Q学习行为树 | 第29页 |
3.4 算法流程 | 第29-32页 |
3.4.1 建立知识 | 第29-30页 |
3.4.2 Q条件节点 | 第30-31页 |
3.4.3 重排树拓扑 | 第31-32页 |
3.5 实验仿真与分析 | 第32-37页 |
3.5.1 智能代理 | 第32-34页 |
3.5.2 区域设定 | 第34页 |
3.5.3 猎物状态和奖励 | 第34-35页 |
3.5.4 实验分组 | 第35页 |
3.5.5 结果与分析 | 第35-37页 |
3.5.6 实验结论 | 第37页 |
3.6 本章小结 | 第37-39页 |
第四章 基于行为树技术的通用AI引擎设计与实现 | 第39-62页 |
4.1 引言 | 第39页 |
4.2 通用AI引擎AiGine的概要设计 | 第39-41页 |
4.2.1 引擎定位 | 第39-40页 |
4.2.2 性能目标 | 第40页 |
4.2.3 引擎总体架构 | 第40-41页 |
4.3 通用AI引擎AiGine的详细设计与实现 | 第41-61页 |
4.3.1 开发环境和开发工具 | 第41-42页 |
4.3.2 基础框架类 | 第42页 |
4.3.3 智能代理 | 第42-45页 |
4.3.4 决策系统 | 第45-52页 |
4.3.5 感知系统 | 第52-56页 |
4.3.6 行为系统 | 第56-59页 |
4.3.7 消息机制 | 第59-61页 |
4.4 本章小结 | 第61-62页 |
第五章 基于通用AI引擎的策略游戏设计与实现 | 第62-72页 |
5.1 引言 | 第62页 |
5.2 Unity3D游戏引擎简介 | 第62-63页 |
5.3 游戏的概要设计 | 第63-64页 |
5.3.1 游戏项目的基本信息 | 第63页 |
5.3.2 游戏的基本流程 | 第63-64页 |
5.4 游戏的详细设计与实现 | 第64-71页 |
5.4.1 项目的资源组织 | 第64-65页 |
5.4.2 游戏的主体架构 | 第65-66页 |
5.4.3 游戏的主体流程 | 第66-67页 |
5.4.4 游戏的类组件 | 第67-70页 |
5.4.5 游戏运行效果 | 第70-71页 |
5.5 本章小结 | 第71-72页 |
第六章 总结与展望 | 第72-74页 |
6.1 工作总结 | 第72-73页 |
6.2 展望 | 第73-74页 |
参考文献 | 第74-76页 |
致谢 | 第76-77页 |
攻读硕士学位期间所发表的学术论文 | 第77页 |