摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
符号对照表 | 第12-17页 |
缩略语对照表 | 第17-23页 |
第一章 绪论 | 第23-33页 |
1.1 研究背景和意义 | 第23-24页 |
1.2 主要研究内容与现状 | 第24-29页 |
1.2.1 GPU上并行算法评价模型 | 第24-26页 |
1.2.2 IPMD的并行化方法 | 第26-27页 |
1.2.3 任务映射方法的研究 | 第27-28页 |
1.2.4 IPMD中合并存取方法的研究 | 第28-29页 |
1.3 本文主要工作 | 第29-30页 |
1.4 本文的组织结构 | 第30-33页 |
第二章 GPU结构、LDPC译码和巩膜匹配 | 第33-55页 |
2.1 GPU结构 | 第33-41页 |
2.1.1 从GPU到GPGPU的发展 | 第33-34页 |
2.1.2 CUDA构架 | 第34-35页 |
2.1.3 GPU硬件结构 | 第35-37页 |
2.1.4 GPU的线程组织 | 第37-39页 |
2.1.5 GPU的存储结构 | 第39-41页 |
2.2 常用GPU算法设计方法及其局限 | 第41-45页 |
2.2.1 Foster并行算法设计方法 | 第41-42页 |
2.2.2 GPU算法设计相关技术 | 第42-43页 |
2.2.3 GPU算法常用设计方法的局限 | 第43-45页 |
2.3 LDPC译码算法 | 第45-48页 |
2.3.1 LDPC码 | 第45-47页 |
2.3.2 LDPC译码算法 | 第47-48页 |
2.3.3 基于GPU的LDPC译码技术的研究进展 | 第48页 |
2.4 巩膜匹配算法 | 第48-54页 |
2.4.1 生物识别技术 | 第48-50页 |
2.4.2 巩膜识别与巩膜匹配算法 | 第50-53页 |
2.4.3 GPU并行计算在生物识别中的应用 | 第53-54页 |
2.5 小结 | 第54-55页 |
第三章 GPU并行算法分析模型的研究 | 第55-81页 |
3.1 引言 | 第55页 |
3.2 MWP-CWP模型 | 第55-57页 |
3.3 GPU并行算法分析模型 | 第57-70页 |
3.3.1 汇编源代码与DAG图 | 第58-59页 |
3.3.2 多流水线部件性能分析模型 | 第59-60页 |
3.3.3 针对Kepler结构的分析模型校准 | 第60-67页 |
3.3.4 优化效果的量化 | 第67-68页 |
3.3.5 分析模型的实例验证 | 第68-70页 |
3.3.6 分析模型的局限性 | 第70页 |
3.4 GPU并行算法分析实例:LDPC译码算法分析 | 第70-78页 |
3.4.1 LDPC译码算法 | 第70-74页 |
3.4.2 LDPC并行译码算法分析 | 第74-78页 |
3.5 实验与结果分析 | 第78-80页 |
3.6 小结 | 第80-81页 |
第四章 IPMD的并行化方法 | 第81-103页 |
4.1 引言 | 第81-83页 |
4.2 IPMD并行方法 | 第83-91页 |
4.2.1 非规则问题在GPU上的并行化方法 | 第84-85页 |
4.2.2 IPMD并行在GPU上的实现 | 第85-88页 |
4.2.3 IPMD并行时的存储空间限制 | 第88-90页 |
4.2.4 IPMD并行时计算量对计算速度的限制 | 第90-91页 |
4.3 IPMD在GPU上并行计算实例:巩膜匹配算法设计 | 第91-100页 |
4.3.1 采用Y型描述符减少计算量 | 第92-94页 |
4.3.2 采用WPL巩膜描述符减少内存占用 | 第94-100页 |
4.4 实验与结果分析 | 第100-102页 |
4.5 小结 | 第102-103页 |
第五章 GPU任务的组块与映射模型研究 | 第103-119页 |
5.1 引言 | 第103页 |
5.2 GPU任务的组块与映射模型 | 第103-109页 |
5.2.1 GPU中任务分解和映射模型 | 第103-104页 |
5.2.2 任务均衡模型 | 第104-106页 |
5.2.3 可同步模型 | 第106-108页 |
5.2.4 合并存取模型 | 第108-109页 |
5.3 GPU任务组块与映射实例:巩膜匹配的任务映射 | 第109-116页 |
5.3.1 巩膜匹配的任务组块与映射 | 第109-112页 |
5.3.2 数据结构设计与数据存储 | 第112-114页 |
5.3.3 GPU配置参数的优化 | 第114-116页 |
5.4 实验与结果分析 | 第116-118页 |
5.5 小结 | 第118-119页 |
第六章 IPMD中实现合并存取的方法 | 第119-141页 |
6.1 引言 | 第119-120页 |
6.2 无序地址的合并存取方法 | 第120-124页 |
6.2.1 合并存取 | 第120-121页 |
6.2.2 单次访问的合并存取实现 | 第121-122页 |
6.2.3 多次无序访问时的合成存取方法 | 第122-124页 |
6.2.4 通过数据压缩降低访存时间 | 第124页 |
6.3 实现合并存取的实例:LDPC并行译码 | 第124-134页 |
6.3.1 实现合并存取的任务分解 | 第124-127页 |
6.3.2 实现合并存取的任务映射 | 第127-129页 |
6.3.3 实现合并存取的地址置换 | 第129-131页 |
6.3.4 校验矩阵与更新信息的数据压缩 | 第131-134页 |
6.4 实验与结果分析 | 第134-139页 |
6.4.1 测试参数配置 | 第134-135页 |
6.4.2 与合并存取相关的比对试验 | 第135-136页 |
6.4.3 32bit与 8bit译码的比对试验 | 第136-137页 |
6.4.4 译码吞吐率的比较 | 第137-139页 |
6.5 小结 | 第139-141页 |
第七章 总结与展望 | 第141-145页 |
7.1 本文工作总结 | 第141-142页 |
7.2 未来工作展望 | 第142-145页 |
参考文献 | 第145-155页 |
致谢 | 第155-157页 |
作者简介 | 第157-158页 |