摘要 | 第5-7页 |
Abstract | 第7-8页 |
第1章 前言 | 第11-17页 |
1.1 论文研究目的以及意义 | 第11-13页 |
1.2 国内外研究现状 | 第13-15页 |
1.3 研究内容和技术路线 | 第15-17页 |
第2章 AVO基本原理 | 第17-24页 |
2.1 AVO基本原理 | 第17-18页 |
2.2 Zoeppritz方程的完全形式 | 第18-20页 |
2.3 Zoeppritz方程的近似式 | 第20-24页 |
2.3.1 Aki-Richards近似公式 | 第20-21页 |
2.3.2 Shuey近似公式 | 第21-22页 |
2.3.3 Hilterman近似公式 | 第22-24页 |
第3章 支持向量机概述 | 第24-42页 |
3.1 机器学习问题 | 第24-27页 |
3.1.1 机器学习的一般模型 | 第25-26页 |
3.1.2 经验风险最小化 | 第26-27页 |
3.2 统计学习理论 | 第27-32页 |
3.2.1 学习过程的非平凡一致性 | 第28-30页 |
3.2.2 函数集的VC维 | 第30-31页 |
3.2.3 结构风险最小化 | 第31-32页 |
3.3 支持向量机 | 第32-38页 |
3.3.1 最优分类超平面与支持向量 | 第33-35页 |
3.3.2 Mercer核与Hilbert空间 | 第35-38页 |
3.4 支持向量回归机 | 第38-42页 |
3.4.1 支持向量回归 | 第39-42页 |
第4章 支持向量回归机的训练算法及核函数参数选择 | 第42-56页 |
4.1 支持向量回归机的原理 | 第42-45页 |
4.1.1 线性支持向量机回归 | 第43-44页 |
4.1.2 非线性线性支持向量机回归 | 第44-45页 |
4.2 支持向量回归机训练算法 | 第45-47页 |
4.2.1 块算法 | 第45-46页 |
4.2.2 分解算法 | 第46-47页 |
4.2.3 序列最小优化算法 | 第47页 |
4.3 支持向量机回归模型 | 第47-51页 |
4.3.1 一般损失函数下的支持向量回归模型 | 第47-49页 |
4.3.2 损失函数下的v-SVR模型 | 第49-51页 |
4.4 核函数选择 | 第51-56页 |
4.4.1 核函数 | 第52页 |
4.4.2 核函数与正定矩阵 | 第52-53页 |
4.4.3 核函数性质 | 第53-54页 |
4.4.4 选择及构造方法 | 第54-56页 |
第5章 用支持向量回归机进行非线性AVO反演 | 第56-70页 |
5.1 支持向量机进行AVO反演的流程 | 第57-58页 |
5.2 正演模拟 | 第58-61页 |
5.3 不同支持向量回归机模型下的模型检验 | 第61-64页 |
5.3.1 基于ε-SVR模型与v-SVR的模型训练 | 第62-64页 |
5.4 实际资料 | 第64-70页 |
5.4.1 噪声测试 | 第66-69页 |
5.4.2 实验结果及分析 | 第69-70页 |
第6章 结论及建议 | 第70-72页 |
6.1 结论 | 第70页 |
6.2 建议 | 第70-72页 |
参考文献 | 第72-75页 |
致谢 | 第75-76页 |
个人简历 | 第76页 |
发表的学术论文 | 第76页 |