摘要 | 第4-6页 |
Abstract | 第6-7页 |
第一章 绪论 | 第15-25页 |
1.1 研究背景与主要问题 | 第15-16页 |
1.2 研究现状 | 第16-19页 |
1.3 技术难点与解决方案 | 第19-21页 |
1.4 本文工作 | 第21-23页 |
1.4.1 实现公平有效的RDMA资源复用 | 第22页 |
1.4.2 利用RDMA加速分布式机器学习框架MXNet | 第22-23页 |
1.5 本文组织 | 第23-25页 |
第二章 背景介绍及相关工作 | 第25-39页 |
2.1 RDMA的工作原理 | 第25-32页 |
2.1.1 RDMA网络协议栈与IO模型 | 第25-27页 |
2.1.2 RDMA网络缓冲区访问方式 | 第27-28页 |
2.1.3 RDMA网络资源管理与通信原语 | 第28-29页 |
2.1.4 RDMA主机端IO路径与网卡处理单元 | 第29-30页 |
2.1.5 RoCE网络的流量控制与拥塞控制 | 第30-32页 |
2.2 分布式机器学习中的参数服务器 | 第32-34页 |
2.3 资源复用 | 第34-36页 |
2.3.1 基于面向无连接加协程的资源复用方法 | 第34页 |
2.3.2 基于面向连接加互斥锁的资源复用方法 | 第34-35页 |
2.3.3 基于动态连接的资源复用方法 | 第35-36页 |
2.4 利用RDMA加速数据中心应用 | 第36-39页 |
2.4.1 RDMA加速键值存储 | 第36页 |
2.4.2 RDMA加速远程过程调用 | 第36-37页 |
2.4.3 RDMA加速分布式事务 | 第37-39页 |
第三章 实现公平有效的RDMA资源复用 | 第39-55页 |
3.1 问题描述与动机 | 第39-43页 |
3.2 挑战 | 第43-44页 |
3.3 Avatar的设计与架构 | 第44-45页 |
3.4 异步请求响应和处理 | 第45页 |
3.5 公平传输服务 | 第45-46页 |
3.6 流量接收与分发 | 第46页 |
3.7 线程工作模式 | 第46-47页 |
3.8 实验结果 | 第47-53页 |
3.8.1 资源共享下的性能测试 | 第47-49页 |
3.8.2 公平传输服务测试 | 第49-52页 |
3.8.3 延迟和CPU利用率 | 第52-53页 |
3.9 小结 | 第53-55页 |
第四章 利用RDMA加速分布式机器学习框架MXNet | 第55-77页 |
4.1 问题描述与动机 | 第55-57页 |
4.1.1 分布式机器学习 | 第55-56页 |
4.1.2 RDMA | 第56-57页 |
4.2 挑战 | 第57页 |
4.3 SpaceX的设计与架构 | 第57-58页 |
4.4 接口设计 | 第58-59页 |
4.5 连接参数调优 | 第59-62页 |
4.6 数据对齐到缓存行加速网络IO | 第62-64页 |
4.7 网络缓冲区自管理和内存访问模式自适应 | 第64-71页 |
4.7.1 降低小数据传输的开销和自动管理网络缓冲区 | 第65-68页 |
4.7.2 消除大数据传输的内存注册开销和零拷贝接口设计 | 第68-71页 |
4.8 通信模式和语义适配 | 第71页 |
4.9 实验结果 | 第71-75页 |
4.9.1 Ps-lite加速测试 | 第72-74页 |
4.9.2 MXNet加速测试 | 第74-75页 |
4.10 小结 | 第75-77页 |
第五章 总结与展望 | 第77-79页 |
5.1 工作总结 | 第77页 |
5.2 研究展望 | 第77-79页 |
5.2.1 超高速数据中心网络的软硬件协同 | 第77-78页 |
5.2.2 数据中心虚拟化环境下RDMA网络服务隔离 | 第78-79页 |
致谢 | 第79-81页 |
参考文献 | 第81-86页 |
简历与科研成果 | 第86-87页 |