肥宅钓鱼网
当前位置: 首页 钓鱼百科

cuda使用共享内存(CUDA加速共享内存介绍及其应用)

时间:2023-07-03 作者: 小编 阅读量: 1 栏目名: 钓鱼百科

不同类型的内存有各自不同的特点,不过片上内存通常比板载显存要快,而寄存器又是所有存储种类中最快的。本文我们着重介绍共享内存的基础知识以及应用例子。此方式特点为定义的时候不指定大小,在调用核函数的时候将共享内存大小以输入参数的形式传入。

CUDA的存储器可以大致分为两类:

  • 板载显存(On-board memory)
  • 片上内存(On-chip memory)

其中板载显存主要包括全局内存(global memory)、本地内存(local memory)、常量内存(constant memory)、纹理内存(texture memory)等,片上内存主要包括寄存器(register)和共享内存(shared memory)。不同类型的内存有各自不同的特点,不过片上内存通常比板载显存要快,而寄存器又是所有存储种类中最快的。本文我们着重介绍共享内存的基础知识以及应用例子。


01

查看自己显卡上的共享内存信息

CUDA提供了cudaGetDeviceCount和cudaGetDeviceProperties这两个函数,分别用于获取CUDA设备数、获取CUDA设备属性,通过调用这两个函数,可以方便获取共享内存信息和其它CUDA设备信息:

//显示CUDA设备信息void show_GPU_info(void){int deviceCount;//获取CUDA设备总数cudaGetDeviceCount(&deviceCount);//分别获取每个CUDA设备的信息for(int i=0;i<deviceCount;i){//定义存储信息的结构体cudaDeviceProp devProp;//将第i个CUDA设备的信息写入结构体中cudaGetDeviceProperties(&devProp, i);std::cout << "使用GPU device " << i << ": " << devProp.name << std::endl;std::cout << "设备全局内存总量:" << devProp.totalGlobalMem / 1024 / 1024 << "MB" << std::endl;std::cout << "SM的数量:" << devProp.multiProcessorCount << std::endl;std::cout << "每个线程块的共享内存大小:" << devProp.sharedMemPerBlock / 1024.0 << " KB" << std::endl;std::cout << "每个线程块的最大线程数:" << devProp.maxThreadsPerBlock << std::endl;std::cout << "设备上一个线程块(Block)中可用的32位寄存器数量: " << devProp.regsPerBlock << std::endl;std::cout << "每个EM的最大线程数:" << devProp.maxThreadsPerMultiProcessor << std::endl;std::cout << "每个EM的最大线程束数:" << devProp.maxThreadsPerMultiProcessor / 32 << std::endl;std::cout << "设备上多处理器的数量:" << devProp.multiProcessorCount << std::endl;std::cout << "======================================================" << std::endl;}}

运行以上函数,得到共享内存信息以及其它设备信息,如下图所示,本人使用的显卡上,针对于每一个线程块,其可以使用的最大共享内存为48 KB。


02

共享内存的特性

共享内存的主要特点在于“共享”,也即同一个线程块中的所有线程都可以对这一块存储进行读写操作,所以“共享”是针对同一个线程块中所有线程而言的。一旦共享内存被定义并指定大小,系统将给所有线程块都分配相同大小的共享内存,比如定义一个大小为8 bytes的unsigned char型共享内存,那么所有线程块都会被分配一个8 bytes的unsigned char型共享内存。如下图所示:

共享内存在CUDA核函数中定义,通常有两种方式:静态方式、动态方式。

  • 静态方式定义。这种方式定义的特点是定义的同时指定大小

__global__ shared_memory_kernel(uchar *inputs, int row, int col){int x = threadIdx.xblockDim.x * blockIdx.x;//colint y = threadIdx.yblockDim.y * blockIdx.y;//rowif (x < col && y < row){__shared__ uchar s[8];//定义的同时指定大小为8 bytes,因此每个线程块都被分配8 bytes的共享内存...}}

  • 动态方式定义。此方式特点为定义的时候不指定大小,在调用核函数的时候将共享内存大小以输入参数的形式传入

__global__ shared_memory_kernel(uchar *inputs, int row, int col){int x = threadIdx.xblockDim.x * blockIdx.x;//colint y = threadIdx.yblockDim.y * blockIdx.y;//rowif (x < col && y < row){extern __shared__ uchar s[];//定义的时候不指定大小...}}void shared_memory_test(void){...//传入的第1个参数block_num为线程块总数//第2个参数thread_num为每个线程块包含的线程数//第3个参数8为共享内存大小,所以动态共享内存大小通过第3个参数传入shared_memory_kernel<<<block_num, thread_num, 8>>>(inputs, row, col);...}

需要注意:动态定义共享内存时,调用核函数传入的数值必须以字节byte为单位,所以如果定义的共享内存不是byte类型,数值必须乘以类型占用的字节数。比如要动态定义长度为8的float类型共享内存,那么传入核函数的数值为8*sizeof(float)。

shared_memory_kernel<<<block_num, thread_num, 8 * sizeof(float)>>>(inputs, row, col);


03

共享内存的应用例子

前文我们讲的数组元素规约求和算法,使用CUDA全局内存来存储数据:

CUDA加速——基于规约思想的数组元素求和

我们知道全局内存属于板载显存,而共享内存属于片上内存,因此共享内存的读写速度比全局内存快得多。在前文代码的核函数中有个for循环需要多次读写全局内存,全局内存本身就很慢,而且如果不是连续访问会更慢,因此本文我们尝试使用共享内存来代替全局内存实现前文讲的规约求和算法。

由于前文的规约算法是在不同线程块分别进行的,而共享内存又具有线程块内共享的特性,故共享内存正好适合此应用场景。

前文的规约结构

本文使用共享内存的规约结构

下面我们比较使用共享内存的核函数与前文使用全局内存的核函数:

//使用全局内存__global__ void cal_sum_ker0(float *Para, float *blocksum_cuda){int tid = blockIdx.x * blockDim.xthreadIdx.x;if(tid < N){for (int index = 1; index < blockDim.x; index = (index*2)){if (threadIdx.x % (index*2) == 0){Para[tid]= Para[tidindex];}__syncthreads();//同步,以防止归约过程中某个线程运行速度过快导致计算错误}if(threadIdx.x == 0)//整个数组相加完成后,将共享内存数组0号元素的值赋给全局内存数组0号元素blocksum_cuda[blockIdx.x] = Para[tid];}}//使用共享内存//blockIdx.x为线程块的ID号//blockDim.x每个线程块中包含的线程总个数//threadIdx.x为每个线程块中的线程ID号__global__ void cal_sum_ker(float *Para, float *blocksum_cuda){int tid = blockIdx.x * blockDim.xthreadIdx.x;if(tid < N){//动态方式定义float型共享内存extern __shared__ float s_Para[];//线程块中的每个线程负责把其对应的数据从全局内存加载到共享内存s_Para[threadIdx.x] = Para[tid];__syncthreads();//块内线程同步,等待线程块内所有线程加载数据完毕for (int index = 1; index < blockDim.x; index = (index*2)){if (threadIdx.x % (index*2) == 0){//在for循环中使用共享内存实现规约,避免频繁读写全局内存s_Para[threadIdx.x]= s_Para[threadIdx.xindex];}__syncthreads();//块内线程同步,以防止归约过程中某个线程运行速度过快导致计算错误}if(threadIdx.x == 0)//将共享内存数组0号元素的值赋给全局内存数组blocksum_cuda[blockIdx.x] = s_Para[threadIdx.x];}}

接着在测试代码中分别调用上方两个核函数。调用时指定共享内存的长度为每个线程块包含的线程数:

void cal_sum_test() {Timer_Us2 timer;//定义CPU端数组float *test_d = (float *)malloc(N * sizeof(float));for (long long i = 0; i < N; i){test_d[i] = 0.5;}dim3 sumblock(512);//设置每个线程块有512个线程dim3 sumgrid(((N%sumblock.x) ? (N/sumblock.x1) : (N/sumblock.x)));float *test_d_cuda;float *blocksum_cuda;float *blocksum_host = (float *)malloc(sizeof(float) * sumgrid.x);cudaMalloc((void **)&test_d_cuda, sizeof(float) * N);cudaMalloc((void **)&blocksum_cuda, sizeof(float) * sumgrid.x);timer.start_timer();//将数据从CPU端拷贝到GPU端cudaMemcpy(test_d_cuda, test_d, sizeof(float) * N, cudaMemcpyHostToDevice);//调用使用全局内存规约的核函数cal_sum_ker0 << < sumgrid, sumblock>> > (test_d_cuda, blocksum_cuda);//将所有线程块的规约结果从GPU端拷贝到CPU端cudaMemcpy(blocksum_host, blocksum_cuda, sizeof(float) * sumgrid.x, cudaMemcpyDeviceToHost);//在CPU端对所有线程块的规约求和结果做串行求和double sum = 0.0;for(int i = 0; i < sumgrid.x; i){sum= blocksum_host[i];}timer.stop_timer("GPU time (global memory):");cout << " GPU result (global memory) = " << sum << endl;//显示GPU端结果//////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////timer.start_timer();cudaMemcpy(test_d_cuda, test_d, sizeof(float) * N, cudaMemcpyHostToDevice);//调用使用共享内存规约的核函数,sumblock.x为每个线程块包含的线程数,sumblock.x * sizeof(float)就是传入的共享内存字节数cal_sum_ker << < sumgrid, sumblock, sumblock.x * sizeof(float) >> > (test_d_cuda, blocksum_cuda);cudaMemcpy(blocksum_host, blocksum_cuda, sizeof(float) * sumgrid.x, cudaMemcpyDeviceToHost);sum = 0.0;for(int i = 0; i < sumgrid.x; i){sum= blocksum_host[i];}timer.stop_timer("GPU time (shared memory):");cout << " GPU result (shared memory) = " << sum << endl;//显示GPU端结果cudaFree(test_d_cuda);cudaFree(blocksum_cuda);free(blocksum_host);free(test_d);}

运行结果如下,可以看到使用共享内存之后,耗时减少了,这是因为共享内存的读写效率比全局内存高。

    推荐阅读
  • 罗贯中对三国的评价(东汉末年是四国并存)

    他们不仅处处与公孙度作对,还给公孙度的儿子伍长的职位借以羞辱公孙度。这样狂暴的行为成功为其立威,辽东各地的豪门也不再敢与其作对。加之之前对辽东士族的残杀,辽东成了公孙度的私人领地。然而,事与愿违,公孙度病逝了,他那个曾经被侮辱过的儿子公孙康接替了自己的位置。公孙康死后,他的弟弟公孙恭被推举上位。结果可想而知,曹叡不高兴了,辽东政权迎来了司马懿的围杀。

  • 芋头炖豆腐如何做(芋头炖豆腐的烹饪方法)

    主料:豆腐1条、芋头4个配料:八角、桂皮、辣椒、红枣,今天小编就来聊一聊关于芋头炖豆腐如何做?接下来我们就一起去研究一下吧!把豆腐切成1.5厘米大小的块,芋头切成同样大小的多边形块。把切好的芋头和豆腐放到锅里,加上适量的水,放进八角、桂皮、辣椒、红枣、葱、姜、虾皮、料油。开锅后转小火炖20分钟,放进蒜、味精、胡椒粉,2分钟后即可食用。

  • 关于减肥你不得不知道的十件事(你最关心的15个关于减肥的饮食问答来了)

    总热量降低了,体重下降也正常,只是利用了总热量的亏空而已。为避免脱发,平时多摄入奶制品及豆制品,减肥期间可以额外注意补充维生素和矿物质。少吃或者避免吃高脂肪的食物。主食可以适当减少。然而每克乙醇产生7kcal的热量,仅次于脂肪。并且燕麦可以帮助延缓餐后血糖上升速度,让血糖更加稳定,减少胰岛素抵抗。以下几类食物比较建议少吃:动物皮。

  • 干明太鱼怎么做好吃(干明太鱼做法步骤)

    下面内容希望能帮助到你,我们来一起看看吧!干明太鱼怎么做好吃准备用料。干明太鱼、韩式辣椒酱、麦芽糖浆、酱油、白醋、牛肉粉、芝麻、大蒜、葱花、洋葱、胡萝卜。先将干制的明太鱼,用凉水泡5分钟,控干水分备用。再将萝卜切丝,洋葱切丝,大蒜切成蒜蓉,葱切成葱花,倒入盛有处理好的明太鱼干的碗中。倒入麦芽糖浆、倒入韩式辣椒酱、倒入少许的酱油,拌匀后,再少许白醋。再拌匀后,装盘后撒上些芝麻、香菜即可。

  • 朱砂的化学成分是什么东西(朱砂的化学成分是什么)

    朱砂的化学成分是什么东西朱砂的化学成分是硫化汞。含Hg86.2%,常含有土、氧化铁、地沥青等杂质。朱砂溶于盐酸,并产生带臭鸡蛋味的硫化氢。三方晶系,晶体呈板状或菱面体状,集合体呈不规则粒状、致密块状或土状,晶簇常呈菱形双晶体、大颗粒单晶体。晶形为板状或者柱状,穿插双晶常见。比重较大,为8.09。鬼仙辰砂的粉末呈红色,可以经久不褪,我国利用辰砂作颜料已有悠久的历史。

  • 两瓶茅台算行贿吗(十八大后他吃吃喝喝上千次)

    赵洪顺当庭表示服从法院判决,不上诉。淮安市中级人民法院认为,被告人赵洪顺的上述行为依法构成受贿罪。赵洪顺受贿数额特别巨大,鉴于其到案后如实供述犯罪事实,主动交代办案机关尚未掌握的大部分犯罪事实,认罪悔罪,赃款赃物已全部追缴,依法可从轻处罚。法庭遂作出上述判决。2019年2月,赵洪顺涉嫌严重违纪违法被查。

  • 酥肉炒油菜(人气特色菜富贵肉沫油菜)

    欢迎在下方留言分享您对这道美食的建议。

  • 14款第八代索纳塔(体验第10代索纳塔)

    全新一代的索纳塔为我们提供有2.0T8AT黄金动力组合,这也让消费者对它给予了很高的期待,接下来我们就借着体验第10代索纳塔自动豪华版的机会,跟大家聊一聊这款车型。自动豪华版车型在动力方面配备的是2.0T涡轮增压发动机,最大输出功率为240马力,峰值扭矩为353牛米,传动系统方面配备的是8速手自一体变速箱。

  • 沙棘的大小果的区别(你在支付宝种的沙棘树)

    而且沙棘是目前世界上含有天然维生素种类最多的珍贵经济林树种,其维生素C的含量远远高于鲜枣和猕猴桃,从而被誉为天然维生素宝库。特别适宜饮酒后食用。因而具有消食化滞、健脾养胃、疏肝利气的作用。

  • 借问的意思(借问的解释)

    借问的解释借问,汉语词语,拼音:jièwèn,意思是用于向别人询问事情,请问出处:《宋书·萧惠开传》:“虑兴宗不能诣己,戒勒部下:‘蔡会稽部伍若借问,慎不得答’”造句:借问袁安舍,翛然尚闭关。

热门推荐