声明
摘要
第一章 引言
第一节 研究背景及意义
1.1.1 SVM研究背景
1.1.2 高性能计算与GPU发展
第二节 本文主要内容及目标
第三节 本文创新点
第四节 本文结构
第二章 CPU-GPU异构并行编程模型
第一节 并行计算综述
第二节 GPU架构与CUDA编程模型
2.2.1 NVIDIA Fermi架构
2.2.2 CUDA编程模型
第三节 CPU-GPU协同机制
2.3.1 异构计算模型
2.3.2 异构架构下的共享扩展存储层次
第四节 针对大规模异构集群的混合编程模型
2.4.1 MPI+CUDA编程模型
2.4.2 MPI+Multi-threads+CUDA编程模型
第五节 本章小结
第三章 基于内点法的支持向量机训练
第一节 SVM基本原理
3.1.1 监督学习与统计学习理论
3.1.2 SVM基本原理
第二节 SVM研究现状
第三节 SVM的对偶变换
第四节 IPM算法分析
第五节 本章小结
第四章 GPU实现基于IPM算法的SVM训练
第一节 使用CUDA kernel优化SVM
4.1.1 数据布局
4.1.2 基于CUDA kernel实现CMM算法(CU-CMM)
4.1.3 基于CUDA kernel实现LSVIC算法
第二节 使用CUBLAS改进CMM(OCMM)
第三节 利用页锁定内存进行内存扩展
第四节 本章小结
第五章 基于CPU-GPU协作系统的SVM训练
第一节 CPU-GPU协作SYRK设计
5.1.1 SYRK的块分解策略
5.1.2 结合块分懈策略的GPU端流水机制
5.1.3 CPU-GPU环境下的协作SYRK
5.1.4 CGC-SYRK实验分析
第二节 MMC编程模型下的扩展SVM训练
第三节 本章小结
第六章 实验及结果分析
第一节 测试目标和环境
6.1.1 测试环境及目标
第二节 实验参数设置
第三节 实验及结果分析
6.3.1 精度测试
6.3.2 存储层次扩展测试
6.3.3 LSVIC性能测试
6.3.4 CMM性能测试
6.3.5 SVM整体性能测试
6.3.6 SVM扩展性分析
第四节 本章小结
第七章 总结与展望
第一节 本文总结
第二节 未来研究方向
参考文献
致谢
个人简历、学术论文与研究成果