基于支持向量数据描述的故障诊断方法研究
| 摘要 | 第1-4页 |
| Abstract | 第4-6页 |
| 目录 | 第6-9页 |
| 第1章 绪论 | 第9-16页 |
| ·课题来源 | 第9页 |
| ·故障诊断的意义及研究现状 | 第9-11页 |
| ·智能诊断技术的研究现状及发展 | 第11-13页 |
| ·基于专家系统的智能诊断 | 第11-12页 |
| ·基于神经网络的智能诊断 | 第12-13页 |
| ·支持向量方法的诞生 | 第13页 |
| ·支持向量数据描述理论及国内外发展概况 | 第13-14页 |
| ·本文主要内容和结构 | 第14-15页 |
| ·小结 | 第15-16页 |
| 第2章 统计学习理论和SVDD | 第16-32页 |
| ·统计学习理论基础[53] | 第16-25页 |
| ·机器学习的基本问题 | 第17-19页 |
| ·学习算法推广能力的理论估计 | 第19-21页 |
| ·学习机器复杂性与推广能力 | 第21-23页 |
| ·经验风险最小化和结构风险最小化 | 第23-25页 |
| ·硬间隔支持向量数据描述方法[54] | 第25-27页 |
| ·具有非目标样本数据的SVDD | 第27-28页 |
| ·实验 | 第28-31页 |
| ·ROC曲线 | 第28页 |
| ·仿真数据 | 第28-29页 |
| ·实际数据 | 第29-31页 |
| ·小结 | 第31-32页 |
| 第3章 SVDD中的数据预处理 | 第32-48页 |
| ·数据预处理概述 | 第32-38页 |
| ·丢失数据的处理 | 第32-34页 |
| ·异常点分析 | 第34-35页 |
| ·原始数据的转换 | 第35-36页 |
| ·特征归约 | 第36-37页 |
| ·再取样技术 | 第37-38页 |
| ·支持向量数据描述中的特征提取 | 第38-44页 |
| ·特征提取的研究现状 | 第40-42页 |
| ·基于小波包分解的特征提取 | 第42-44页 |
| ·实验 | 第44-47页 |
| ·仿真数据 | 第44-45页 |
| ·实测数据 | 第45-47页 |
| ·小结 | 第47-48页 |
| 第4章 支持向量数据描述中的核函数 | 第48-57页 |
| ·支持向量数据描述中核函数的引入 | 第48-49页 |
| ·核函数方法的基本原理[63] | 第49-50页 |
| ·核函数的性质和常用核函数 | 第50-51页 |
| ·核函数的性质 | 第50页 |
| ·常用核函数 | 第50-51页 |
| ·SVDD故障诊断中的核函数选择和构造 | 第51-54页 |
| ·核函数的选择 | 第51-52页 |
| ·核函数的构造 | 第52-54页 |
| ·故障诊断中的核函数性能 | 第54-56页 |
| ·小结 | 第56-57页 |
| 第5章 混合式支持向量数据描述方法 | 第57-66页 |
| ·分类器的混合方式 | 第57-60页 |
| ·支持向量数据描述故障诊断方法的混合方式 | 第57-59页 |
| ·乘法和平均规则的不同 | 第59-60页 |
| ·支持向量数据描述故障诊断方法的混合规则 | 第60-63页 |
| ·混合支持向量数据描述方法的误差估计 | 第63页 |
| ·实验 | 第63-65页 |
| ·小结 | 第65-66页 |
| 第6章 增量式支持向量数据描述故障诊断方法 | 第66-77页 |
| ·增量学习 | 第66-68页 |
| ·常规SVDD算法存在的问题 | 第66-67页 |
| ·增量学习技术 | 第67-68页 |
| ·增量式支持向量数据描述 | 第68-73页 |
| ·KKT条件 | 第68-69页 |
| ·增量过程分析 | 第69-73页 |
| ·实验 | 第73-76页 |
| ·小结 | 第76-77页 |
| 第7章 结论与展望 | 第77-78页 |
| 参考文献 | 第78-83页 |
| 攻读硕士学位期间参与的科研项目和发表的学术论文 | 第83-84页 |
| 致谢 | 第84页 |