摘要 | 第5-7页 |
ABSTRACT | 第7-9页 |
符号对照表 | 第15-17页 |
缩略语对照表 | 第17-23页 |
第一章 绪论 | 第23-35页 |
1.1 多目标优化问题 | 第23页 |
1.2 多目标进化算法的发展历史和研究现状 | 第23-27页 |
1.2.1 聚合函数的多目标进化算法 | 第24-25页 |
1.2.2 Pareto支配的多目标进化算法 | 第25-26页 |
1.2.3 非Pareto概念的多目标进化算法 | 第26页 |
1.2.4 指标驱动的多目标进化算法 | 第26-27页 |
1.2.5 偏好诱导的多目标进化算法 | 第27页 |
1.3 基于分解的多目标进化算法 | 第27-30页 |
1.3.1 分解方法 | 第27-29页 |
1.3.2 MOEA/D的研究进展 | 第29-30页 |
1.4 多目标优化的测试问题和性能指标 | 第30-31页 |
1.4.1 多目标优化的测试问题 | 第30-31页 |
1.4.2 性能指标 | 第31页 |
1.5 论文的内容摘要和组织结构 | 第31-35页 |
第二章 基于正则Baldwinian学习策略的分解多目标进化算法 | 第35-57页 |
2.1 引言 | 第35页 |
2.2 相关背景 | 第35-38页 |
2.2.1 连续多目标优化问题的正则性 | 第35-36页 |
2.2.2 局部主成分分析(Local PCA) | 第36-37页 |
2.2.3 我们早前工作中的Baldwinian学习策略 | 第37-38页 |
2.3 算法描述 | 第38-42页 |
2.3.1 改进的Baldwinian学习策略 | 第38-41页 |
2.3.2 MOEA/D/BL的算法描述 | 第41-42页 |
2.4 对比实验与结果分析 | 第42-55页 |
2.4.1 实验参数设置 | 第42-43页 |
2.4.2 MOEA/D-UDM和对比算法在经典测试问题上的对比与分析 | 第43-49页 |
2.4.3 在带变量链接的多目标优化问题上的仿真实验 | 第49-52页 |
2.4.4 在约束多目标优化问题上的性能分析 | 第52-54页 |
2.4.5 Baldwinian学习策略的有效性研究 | 第54-55页 |
2.5 本章小结 | 第55-57页 |
第三章 基于对手学习的分解多目标进化算法 | 第57-77页 |
3.1 引言 | 第57页 |
3.2 对立点的定义和概念 | 第57-58页 |
3.3 算法描述 | 第58-64页 |
3.3.1 基于对立点的种群初始化 | 第58-62页 |
3.3.2 基于对手学习的策略 | 第62-63页 |
3.3.3 MOEA/D-OBL的算法描述 | 第63-64页 |
3.4 对比实验与结果分析 | 第64-75页 |
3.4.1 经典测试问题ZDT和DTLZ上的仿真实验 | 第64-68页 |
3.4.2 有变量链接的UF问题上的比较与分析 | 第68-70页 |
3.4.3 WFG测试问题上的性能分析 | 第70-72页 |
3.4.4 众目标优化问题上的对比研究 | 第72-74页 |
3.4.5 广义对立点中参数k的敏感性分析 | 第74页 |
3.4.6 参数Pobl的敏感性分析 | 第74-75页 |
3.5 本章小结 | 第75-77页 |
第四章 基于均匀测度的目标空间分解策略的多目标进化算法 | 第77-101页 |
4.1 引言 | 第77页 |
4.2 权向量均匀设计的方法 | 第77-80页 |
4.2.1 基于单纯形格点的权向量均匀设计方法 | 第78页 |
4.2.2 基于变换方法的权向量均匀设计方法 | 第78-79页 |
4.2.3 权向量空间上的均匀设计测度 | 第79-80页 |
4.3 MOEA/D-UDM的算法描述 | 第80-86页 |
4.3.1 算法的基本思想 | 第80-81页 |
4.3.2 基于均匀测度的权向量设计方法 | 第81-82页 |
4.3.3 均匀测度的权向量设计方法与相关方法的差异性分析 | 第82-84页 |
4.3.4 修改的Tchebycheff分解方法 | 第84-85页 |
4.3.5 算法框架 | 第85-86页 |
4.4 对比实验与结果分析 | 第86-99页 |
4.4.1 MOEA/D-UDM与对比算法的实验研究 | 第86-94页 |
4.4.2 两个策略的有效性分析 | 第94-95页 |
4.4.3 MOEA/D-UDM在特殊类型问题上的仿真研究 | 第95-99页 |
4.5 本章小结 | 第99-101页 |
第五章 基于决策变量学习的多目标进化算法 | 第101-147页 |
5.1 引言 | 第101-102页 |
5.2 相关背景 | 第102-107页 |
5.2.1 决策变量间的可分离性和不可分离性 | 第102-104页 |
5.2.2 变量链接关系的学习技术 | 第104-105页 |
5.2.3 基于变量链接的聚类技术 | 第105-106页 |
5.2.4 变量的控制属性 | 第106-107页 |
5.3 算法描述 | 第107-124页 |
5.3.1 变量的控制属性学习 | 第107-109页 |
5.3.2 两决策变量间的链接学习策略 | 第109-113页 |
5.3.3 分组距离变量为若干个独立的子成分 | 第113-114页 |
5.3.4 提出算法的描述 | 第114-120页 |
5.3.5 关于MOEA/DVA的更多讨论 | 第120-124页 |
5.4 对比实验和结果分析 | 第124-144页 |
5.4.1 在低维决策变量测试问题上的对比试验和结果分析 | 第127-132页 |
5.4.2 在大规模决策变量的多目标优化问题上的对比试验和结果分析 | 第132-134页 |
5.4.3 在现存的多目标优化算法中融入我们所提出的策略 | 第134-137页 |
5.4.4 MOEA/DVA与其他基于链接学习的多目标进化算法对比研究 | 第137-141页 |
5.4.5 MOEA/DVA与基于目标空间分解的多目标进化算法的比较研究 | 第141-143页 |
5.4.6 参数敏感性分析 | 第143-144页 |
5.5. 本章小结 | 第144-147页 |
第六章 偏好驱动的有偏分解多目标进化算法及其在多目标防洪调度中的应用 | 第147-175页 |
6.1 引言 | 第147页 |
6.2 相关背景 | 第147-149页 |
6.2.1 多目标防洪调度问题 | 第147-148页 |
6.2.2 在多目标进化算法中融入决策者偏好信息的方法回顾 | 第148页 |
6.2.3 本章使用的偏好模型---光束搜索(LBS) | 第148-149页 |
6.3 改进的Tchebycheff分解的机理分析 | 第149-152页 |
6.3.1 子问题的最优解与其权向量的几何关系 | 第150-151页 |
6.3.2 改进Tchebycheff分解中偏好解的最优权向量 | 第151-152页 |
6.4 偏好驱动的有偏分解多目标进化算法(pMOEA/D) | 第152-158页 |
6.4.1 偏好模型 | 第152-154页 |
6.4.2 pMOEA/D的主要思想和算法流程 | 第154-156页 |
6.4.3 基于偏好的外部种群的更新 | 第156页 |
6.4.4 偏好驱动的有偏权向量调整 | 第156-158页 |
6.5 对比实验和结果分析 | 第158-172页 |
6.5.1 多目标测试问题 | 第158-159页 |
6.5.2 对比算法:LBS-NSGAⅡ-和LBS-NSGA-Ⅲ | 第159页 |
6.5.3 参数设置 | 第159-162页 |
6.5.4 在ZDT和DTLZ问题上的对比实验和结果分析 | 第162页 |
6.5.5 在UF1-UF10问题上的对比实验和结果分析 | 第162-168页 |
6.5.6 在众目标优化问题上的对比实验和结果分析 | 第168-169页 |
6.5.7 陕西省安康水库防洪调度问题的对比实验和结果分析 | 第169-172页 |
6.6 本章小结 | 第172-175页 |
第七章 总结和展望 | 第175-179页 |
7.1 总结 | 第175-176页 |
7.2 展望 | 第176-179页 |
参考文献 | 第179-189页 |
附录A 计算不同初始种群方法的性能 | 第189-190页 |
附录B 定理3.3.1的证明 | 第190-191页 |
附录C 5.3.5小节中定理和推论的证明 | 第191-193页 |
附录D 基于定义5.2.1,连续ZDT和DTLZ问题各目标函数是可分离函数的证明 | 第193-195页 |
致谢 | 第195-197页 |
作者简介 | 第197-198页 |
1. 基本情况 | 第197页 |
2. 教育背景 | 第197页 |
3. 攻读博士学位期间的研究成果 | 第197-198页 |