封面
声明
目录
中文摘要
英文摘要
第一章 绪论
1.1 研究背景
1.2 相关工作
1.3 研究内容
1.4 主要创新
1.5 论文组织
第二章 千万亿次CPU-GPU异构系统并行编程模型研究
2.1 千万亿次系统MPI/OpenMP/Streaming混合编程模型
2.2 混合编程模型的任务映射
2.3 基于共享内存的多进程共享GPU技术
2.4 本章小结
第三章 从千万亿次扩展到百万万亿次编程模型分析
3.1 未来E级系统的发展趋势
3.2 结点间MPI编程和全系统MPI+X混合编程模型分析
3.3 结点内编程模型的需求
3.4 结点内编程模型分析与总结
3.5 本章小结
第四章 基于测量的自适应任务划分
4.1 异构计算平台任务划分问题的提出
4.2 基于测量的自适应任务划分
4.3 实验与讨论
4.4 本章小结
第五章 嵌套双缓冲软件流水技术
5.1 软件流水的提出
5.2 嵌套双缓冲软件流水
5.3 Cache旁路的流式数据拷贝优化
5.4 基于天河-1平台评测
5.5 本章小结
第六章 千万亿次CPU-GPU异构系统LINPACK实现与优化
6.1 千万亿次CPU-GPU异构系统
6.2 LINPACK编程
6.3 优化方法
6.4 实验
6.5 本章小结
第七章 结论与展望
7.1 论文工作总结
7.2 课题研究展望
致谢
参考文献
作者在学期间取得的学术成果