注册 登录  
 加关注
查看详情
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

银河里的星星

落在人间

 
 
 

日志

 
 

两个不同blas调用在cell上的性能差异之原因  

2010-04-25 11:13:19|  分类: 高性能计算 |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |
使用ps3,调用blas函数时,考察函数花费时间,发现还不如不使用使用spe的blas优化实现,即cellsdk的blas实现花费的时间要比netlib的那个blas实现时间还多.

编译过程分别如下:
使用cellsdk的blas库实现:
mpicc data_plot.c  -I/opt/cell/sdk/usr/include/ -Wall -L .   /home/duanple/hete_show/hete_lib/src/hetelib.a -lblas -lspe2 -lm -lnuma
env BLAS_NUMSPES=5 BLAS_HUGE_FILE=/home/duanple/huge/blas_lib.bin numactl --cpunodebind=0 --membind=0  ./a.out
使用netlib的实现:
make plot
mpicc  data_plot.c  -I/opt/cell/sdk/usr/include/ -Wall -L .   /home/duanple/hete_show/hete_lib/src/hetelib.a /home/duanple/CBLAS/lib/LINUX/cblas_LINUX.a /home/duanple/BLAS/blas_LINUX.a 
./a.out

测试程序原始实现如下:

void cblas_daxpy_test(int input){
    int size = (HETE_INT)input;
    float * data = (float *)hete_malloc(size);
    int num = size/sizeof(float);
    float temp = 1.3;
   
    cblas_saxpy(num,temp,data,1,data,1);

    hete_free(data);

}
然后在循环里测试:
for(i = 0,input = 0 ; i < test_num ; i++,input += step_size){     
        start = MPI_Wtime();
        cblas_daxpy_test(input);
        end = MPI_Wtime();
        printf("%d %lf\n",i,end-start);
    }
输出如下:
0 0.006680
1 0.016506
2 0.030331
3 0.045189
4 0.058386
5 0.074658
6 0.087803
7 0.087699
8 0.120216
9 0.124565
10 0.140279
11 0.155261
12 0.173850
13 0.185558
14 0.208170
15 0.234272
16 0.228106
17 0.241932
18 0.268046
19 0.267028
而如果使用netlib的blas,结果如下:
0 0.000007
1 0.002885
2 0.004458
3 0.006170
4 0.007782
5 0.009437
6 0.011206
7 0.012816
8 0.014590
9 0.016170
10 0.017870
11 0.019489
12 0.021149
13 0.022912
14 0.024474
15 0.026168
16 0.027774
17 0.029623
18 0.031152
19 0.032826
测试结果表明还不如不采用spe:

经思考,参考cellsdk的blas文档,可以发现spe实现都有一个启动时间
Startup costs
There is a one time startup cost due to initialization and setup of memory and
SPEs within the BLAS library. This one time start-up cost is incurred only when an
application invokes an optimized BLAS routine for the first time. Subsequent
invocations of optimized BLAS routines by the same application do not incur this
cost.
经过测试,终于找到原因.在我们上面的实现中,每次调用都是对函数使用的空间进行了malloc free.这样导致每次必须进行这个启动过程.
当修改为下面的实现时:

    float * data = (float *)hete_malloc(step_size*test_num);
    float temp = 1.3;


    for(i = 0,input = 0 ; i < test_num ; i++,input += step_size){
       
        int num = input/sizeof(float);
        start = MPI_Wtime();
        cblas_saxpy(num,temp,data,1,data,1);
        end = MPI_Wtime();
        printf("%d %lf\n",i,end-start);
    }

    hete_free(data);

测试结果如下:
0 0.006488
1 0.015739
2 0.014540
3 0.013468
4 0.014251
5 0.014466
6 0.014591
7 0.014846
8 0.014824
9 0.014981
10 0.015195
11 0.015296
12 0.015537
13 0.015686
14 0.015734
15 0.015938
16 0.016045
17 0.016374
18 0.016369
19 0.016592
可以看到运行时间明显缩短,而且比netlib的blas实现更快,而其其花费时间的增长率更慢,这样对于更大数据量的测试,将能表现出更好的性能.

  评论这张
 
阅读(740)| 评论(0)
推荐 转载

历史上的今天

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2018