摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第10-16页 |
1.1 研究背景及意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-13页 |
1.2.1 时间序列数据的应用与研究现状 | 第11-12页 |
1.2.2 序列到序列的研究现状 | 第12-13页 |
1.3 本文的研究内容和内容安排 | 第13-16页 |
1.3.1 研究内容和主要贡献 | 第13-15页 |
1.3.2 论文组织结构 | 第15-16页 |
第二章 背景技术介绍 | 第16-22页 |
2.1 序列到序列学习 | 第16-17页 |
2.2 注意力机制 | 第17-19页 |
2.2.1 基于注意力机制的encoder-decoder模型 | 第17-18页 |
2.2.2 分层注意力机制 | 第18-19页 |
2.3 Transformer和自注意力机制 | 第19-21页 |
2.4 本章小结 | 第21-22页 |
第三章 需求分析 | 第22-32页 |
3.1 需求概述 | 第22-23页 |
3.2 数据特点及分析 | 第23-25页 |
3.3 现有时间序列预测模型分析 | 第25-31页 |
3.2.1 回归树模型 | 第25-26页 |
3.2.2 循环神经网络 | 第26-28页 |
3.2.3 基于注意力机制的双阶段预测模型(DA-RNN) | 第28-31页 |
3.4 本章小结 | 第31-32页 |
第四章 多源时间序列数据的建模分析与预测 | 第32-48页 |
4.1 数据分析 | 第32-33页 |
4.2 模型概述 | 第33-35页 |
4.3 时间序列数据的表示 | 第35-40页 |
4.3.1 数据收集和处理 | 第35-37页 |
4.3.2 基于分层注意力的网络数据的表示 | 第37-39页 |
4.3.3 基于注意力的外部因素的表示 | 第39-40页 |
4.4 时间序列数据的编码 | 第40-44页 |
4.4.1 长短时记忆网络 | 第40-42页 |
4.4.2 自注意力机制 | 第42-44页 |
4.5 时间序列数据的解码预测 | 第44-47页 |
4.5.1 基于LSTM解码器的预测 | 第44-45页 |
4.5.2 基于自注意力解码器的预测 | 第45-47页 |
4.6 本章小结 | 第47-48页 |
第五章 实验设计与分析 | 第48-60页 |
5.1 实验数据概述 | 第48-51页 |
5.2 评价指标与参数设置 | 第51-52页 |
5.2.1 评价指标 | 第51-52页 |
5.2.2 实验参数设置 | 第52页 |
5.3 实验结果与分析 | 第52-59页 |
5.3.1 预测结果与模型比对 | 第52-55页 |
5.3.2 模型结构和参数分析 | 第55-59页 |
5.4 本章小结 | 第59-60页 |
第六章 模型应用与案例分析 | 第60-68页 |
6.1 城市轨道交通的背景 | 第60页 |
6.2 数据概述与分析 | 第60-63页 |
6.3 数据处理与预测结果 | 第63-67页 |
6.3.1 数据预处理 | 第63-65页 |
6.3.2 预测结果分析 | 第65-67页 |
6.4 本章小结 | 第67-68页 |
第七章 总结与展望 | 第68-70页 |
7.1 全文工作总结 | 第68-69页 |
7.2 未来工作展望 | 第69-70页 |
参考文献 | 第70-75页 |
附录 | 第75-76页 |
致谢 | 第76-77页 |
攻读学位期间发表的学术论文目录 | 第77页 |