摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第1章 绪论 | 第9-17页 |
1.1 研究背景及意义 | 第9-11页 |
1.1.1 研究背景 | 第9-10页 |
1.1.2 研究意义 | 第10-11页 |
1.2 国内外研究现状及分析 | 第11-14页 |
1.2.1 关联议题发现方法研究现状 | 第11页 |
1.2.2 多AGENT自适应协商研究现状 | 第11-13页 |
1.2.3 多AGENT自适应协商策略研究现状 | 第13-14页 |
1.3 本文的研究内容 | 第14-15页 |
1.4 本文的研究路线 | 第15-17页 |
第2章 相关理论介绍 | 第17-33页 |
2.1 关联议题发现相关理论 | 第17-22页 |
2.1.1 关联议题与独立议题理论 | 第17-18页 |
2.1.2 关联议题发现相关方法 | 第18-22页 |
2.2 多AGENT自适应协商策略相关理论 | 第22-25页 |
2.2.1 Agent和多Agent技术相关理论 | 第22-23页 |
2.2.2 多Agent自适应协商模型相关理论 | 第23-24页 |
2.2.3 多Agent自适应协商策略 | 第24-25页 |
2.3 相关研究方法 | 第25-31页 |
2.3.1 RBF神经网络算法 | 第25-28页 |
2.3.2 Q-强化学习算法 | 第28-29页 |
2.3.3 支持向量机算法 | 第29-30页 |
2.3.4 Adaboost算法 | 第30-31页 |
2.4 本章小结 | 第31-33页 |
第3章 基于关联议题发现的多AGENT自适应协商模型 | 第33-47页 |
3.1 双边多议题协商环境 | 第33页 |
3.2 多AGENT自适应协商框架 | 第33-35页 |
3.3 多AGENT自适应协商流程 | 第35-37页 |
3.4 关联议题发现方法 | 第37-42页 |
3.4.1 基于多维立体图形体积的关联议题发现方法 | 第38-40页 |
3.4.2 基于DAI模型的关联议题整合方法 | 第40-41页 |
3.4.3 关联议题发现步骤 | 第41-42页 |
3.5 提议效用评价函数 | 第42-44页 |
3.5.1 独立议题评估效用函数 | 第42-43页 |
3.5.2 关联议题评估效用函数 | 第43页 |
3.5.3 总体评估效用函数 | 第43-44页 |
3.6 基于关联议题发现的多AGENT自适应协商模型 | 第44-45页 |
3.7 本章小结 | 第45-47页 |
第4章 基于关联议题发现的多AGENT自适应协商策略 | 第47-57页 |
4.1 基于对手让步幅度学习的自适应协商策略 | 第47-51页 |
4.1.1 基于SVM算法的对手让步幅度弱学习模型 | 第47-49页 |
4.1.2 基于对手让步幅度的自适应协商策略 | 第49-50页 |
4.1.3 基于对手让步幅度的自适应协商策略生成步骤 | 第50-51页 |
4.2 基于对手提议值学习的自适应协商策略 | 第51-55页 |
4.2.1 基于Q-强化学习算法的协商策略 | 第51-53页 |
4.2.2 基于RBF神经网络算法的协商策略优化 | 第53-54页 |
4.2.3 基于对手提议值的自适应协商策略生成步骤 | 第54-55页 |
4.3 本章小结 | 第55-57页 |
第5章 仿真实验与结果分析 | 第57-69页 |
5.1 实验环境及参数设置 | 第57-59页 |
5.1.1 实验环境 | 第57-58页 |
5.1.2 参数设置 | 第58-59页 |
5.2 实验结果及分析 | 第59-66页 |
5.2.0 关联议题发现实验结果分析 | 第59-62页 |
5.2.1 基于对手让步幅度的自适应协商策略结果分析 | 第62-64页 |
5.2.2 基于Q-强化学习和RBF神经网络的自适应协商策略结果分析 | 第64-66页 |
5.3 本章小结 | 第66-69页 |
总结与展望 | 第69-71页 |
参考文献 | 第71-75页 |
攻读硕士学位期间发表的学术论文 | 第75-76页 |
攻读硕士学位期间参与的课题研究 | 第76-77页 |
致谢 | 第77-78页 |