肥宅钓鱼网
当前位置: 首页 钓鱼百科

cuda使用共享内存(CUDA加速共享内存介绍及其应用)

时间:2023-07-03 作者: 小编 阅读量: 1 栏目名: 钓鱼百科

不同类型的内存有各自不同的特点,不过片上内存通常比板载显存要快,而寄存器又是所有存储种类中最快的。本文我们着重介绍共享内存的基础知识以及应用例子。此方式特点为定义的时候不指定大小,在调用核函数的时候将共享内存大小以输入参数的形式传入。

CUDA的存储器可以大致分为两类:

  • 板载显存(On-board memory)
  • 片上内存(On-chip memory)

其中板载显存主要包括全局内存(global memory)、本地内存(local memory)、常量内存(constant memory)、纹理内存(texture memory)等,片上内存主要包括寄存器(register)和共享内存(shared memory)。不同类型的内存有各自不同的特点,不过片上内存通常比板载显存要快,而寄存器又是所有存储种类中最快的。本文我们着重介绍共享内存的基础知识以及应用例子。


01

查看自己显卡上的共享内存信息

CUDA提供了cudaGetDeviceCount和cudaGetDeviceProperties这两个函数,分别用于获取CUDA设备数、获取CUDA设备属性,通过调用这两个函数,可以方便获取共享内存信息和其它CUDA设备信息:

//显示CUDA设备信息void show_GPU_info(void){int deviceCount;//获取CUDA设备总数cudaGetDeviceCount(&deviceCount);//分别获取每个CUDA设备的信息for(int i=0;i<deviceCount;i){//定义存储信息的结构体cudaDeviceProp devProp;//将第i个CUDA设备的信息写入结构体中cudaGetDeviceProperties(&devProp, i);std::cout << "使用GPU device " << i << ": " << devProp.name << std::endl;std::cout << "设备全局内存总量:" << devProp.totalGlobalMem / 1024 / 1024 << "MB" << std::endl;std::cout << "SM的数量:" << devProp.multiProcessorCount << std::endl;std::cout << "每个线程块的共享内存大小:" << devProp.sharedMemPerBlock / 1024.0 << " KB" << std::endl;std::cout << "每个线程块的最大线程数:" << devProp.maxThreadsPerBlock << std::endl;std::cout << "设备上一个线程块(Block)中可用的32位寄存器数量: " << devProp.regsPerBlock << std::endl;std::cout << "每个EM的最大线程数:" << devProp.maxThreadsPerMultiProcessor << std::endl;std::cout << "每个EM的最大线程束数:" << devProp.maxThreadsPerMultiProcessor / 32 << std::endl;std::cout << "设备上多处理器的数量:" << devProp.multiProcessorCount << std::endl;std::cout << "======================================================" << std::endl;}}

运行以上函数,得到共享内存信息以及其它设备信息,如下图所示,本人使用的显卡上,针对于每一个线程块,其可以使用的最大共享内存为48 KB。


02

共享内存的特性

共享内存的主要特点在于“共享”,也即同一个线程块中的所有线程都可以对这一块存储进行读写操作,所以“共享”是针对同一个线程块中所有线程而言的。一旦共享内存被定义并指定大小,系统将给所有线程块都分配相同大小的共享内存,比如定义一个大小为8 bytes的unsigned char型共享内存,那么所有线程块都会被分配一个8 bytes的unsigned char型共享内存。如下图所示:

共享内存在CUDA核函数中定义,通常有两种方式:静态方式、动态方式。

  • 静态方式定义。这种方式定义的特点是定义的同时指定大小

__global__ shared_memory_kernel(uchar *inputs, int row, int col){int x = threadIdx.xblockDim.x * blockIdx.x;//colint y = threadIdx.yblockDim.y * blockIdx.y;//rowif (x < col && y < row){__shared__ uchar s[8];//定义的同时指定大小为8 bytes,因此每个线程块都被分配8 bytes的共享内存...}}

  • 动态方式定义。此方式特点为定义的时候不指定大小,在调用核函数的时候将共享内存大小以输入参数的形式传入

__global__ shared_memory_kernel(uchar *inputs, int row, int col){int x = threadIdx.xblockDim.x * blockIdx.x;//colint y = threadIdx.yblockDim.y * blockIdx.y;//rowif (x < col && y < row){extern __shared__ uchar s[];//定义的时候不指定大小...}}void shared_memory_test(void){...//传入的第1个参数block_num为线程块总数//第2个参数thread_num为每个线程块包含的线程数//第3个参数8为共享内存大小,所以动态共享内存大小通过第3个参数传入shared_memory_kernel<<<block_num, thread_num, 8>>>(inputs, row, col);...}

需要注意:动态定义共享内存时,调用核函数传入的数值必须以字节byte为单位,所以如果定义的共享内存不是byte类型,数值必须乘以类型占用的字节数。比如要动态定义长度为8的float类型共享内存,那么传入核函数的数值为8*sizeof(float)。

shared_memory_kernel<<<block_num, thread_num, 8 * sizeof(float)>>>(inputs, row, col);


03

共享内存的应用例子

前文我们讲的数组元素规约求和算法,使用CUDA全局内存来存储数据:

CUDA加速——基于规约思想的数组元素求和

我们知道全局内存属于板载显存,而共享内存属于片上内存,因此共享内存的读写速度比全局内存快得多。在前文代码的核函数中有个for循环需要多次读写全局内存,全局内存本身就很慢,而且如果不是连续访问会更慢,因此本文我们尝试使用共享内存来代替全局内存实现前文讲的规约求和算法。

由于前文的规约算法是在不同线程块分别进行的,而共享内存又具有线程块内共享的特性,故共享内存正好适合此应用场景。

前文的规约结构

本文使用共享内存的规约结构

下面我们比较使用共享内存的核函数与前文使用全局内存的核函数:

//使用全局内存__global__ void cal_sum_ker0(float *Para, float *blocksum_cuda){int tid = blockIdx.x * blockDim.xthreadIdx.x;if(tid < N){for (int index = 1; index < blockDim.x; index = (index*2)){if (threadIdx.x % (index*2) == 0){Para[tid]= Para[tidindex];}__syncthreads();//同步,以防止归约过程中某个线程运行速度过快导致计算错误}if(threadIdx.x == 0)//整个数组相加完成后,将共享内存数组0号元素的值赋给全局内存数组0号元素blocksum_cuda[blockIdx.x] = Para[tid];}}//使用共享内存//blockIdx.x为线程块的ID号//blockDim.x每个线程块中包含的线程总个数//threadIdx.x为每个线程块中的线程ID号__global__ void cal_sum_ker(float *Para, float *blocksum_cuda){int tid = blockIdx.x * blockDim.xthreadIdx.x;if(tid < N){//动态方式定义float型共享内存extern __shared__ float s_Para[];//线程块中的每个线程负责把其对应的数据从全局内存加载到共享内存s_Para[threadIdx.x] = Para[tid];__syncthreads();//块内线程同步,等待线程块内所有线程加载数据完毕for (int index = 1; index < blockDim.x; index = (index*2)){if (threadIdx.x % (index*2) == 0){//在for循环中使用共享内存实现规约,避免频繁读写全局内存s_Para[threadIdx.x]= s_Para[threadIdx.xindex];}__syncthreads();//块内线程同步,以防止归约过程中某个线程运行速度过快导致计算错误}if(threadIdx.x == 0)//将共享内存数组0号元素的值赋给全局内存数组blocksum_cuda[blockIdx.x] = s_Para[threadIdx.x];}}

接着在测试代码中分别调用上方两个核函数。调用时指定共享内存的长度为每个线程块包含的线程数:

void cal_sum_test() {Timer_Us2 timer;//定义CPU端数组float *test_d = (float *)malloc(N * sizeof(float));for (long long i = 0; i < N; i){test_d[i] = 0.5;}dim3 sumblock(512);//设置每个线程块有512个线程dim3 sumgrid(((N%sumblock.x) ? (N/sumblock.x1) : (N/sumblock.x)));float *test_d_cuda;float *blocksum_cuda;float *blocksum_host = (float *)malloc(sizeof(float) * sumgrid.x);cudaMalloc((void **)&test_d_cuda, sizeof(float) * N);cudaMalloc((void **)&blocksum_cuda, sizeof(float) * sumgrid.x);timer.start_timer();//将数据从CPU端拷贝到GPU端cudaMemcpy(test_d_cuda, test_d, sizeof(float) * N, cudaMemcpyHostToDevice);//调用使用全局内存规约的核函数cal_sum_ker0 << < sumgrid, sumblock>> > (test_d_cuda, blocksum_cuda);//将所有线程块的规约结果从GPU端拷贝到CPU端cudaMemcpy(blocksum_host, blocksum_cuda, sizeof(float) * sumgrid.x, cudaMemcpyDeviceToHost);//在CPU端对所有线程块的规约求和结果做串行求和double sum = 0.0;for(int i = 0; i < sumgrid.x; i){sum= blocksum_host[i];}timer.stop_timer("GPU time (global memory):");cout << " GPU result (global memory) = " << sum << endl;//显示GPU端结果//////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////timer.start_timer();cudaMemcpy(test_d_cuda, test_d, sizeof(float) * N, cudaMemcpyHostToDevice);//调用使用共享内存规约的核函数,sumblock.x为每个线程块包含的线程数,sumblock.x * sizeof(float)就是传入的共享内存字节数cal_sum_ker << < sumgrid, sumblock, sumblock.x * sizeof(float) >> > (test_d_cuda, blocksum_cuda);cudaMemcpy(blocksum_host, blocksum_cuda, sizeof(float) * sumgrid.x, cudaMemcpyDeviceToHost);sum = 0.0;for(int i = 0; i < sumgrid.x; i){sum= blocksum_host[i];}timer.stop_timer("GPU time (shared memory):");cout << " GPU result (shared memory) = " << sum << endl;//显示GPU端结果cudaFree(test_d_cuda);cudaFree(blocksum_cuda);free(blocksum_host);free(test_d);}

运行结果如下,可以看到使用共享内存之后,耗时减少了,这是因为共享内存的读写效率比全局内存高。

    推荐阅读
  • 章字开头的成语(章字开头的成语有哪些)

    以下内容希望对你有帮助!章字开头的成语章字开头的成语:章往考来、章甫荐履、章决句断、章台之柳、章父荐屦、章句小儒、章句之徒、章台杨柳。章往考来,汉语成语,拼音是zhāngwǎngkǎolái,意思是弄清过去,考察将来。章甫荐履,汉语成语,拼音是zhāngfǔjiànlǚ,意思是指冠被垫在鞋子下。章决句断,汉语成语,拼音是zhāngjuéjùduàn,意思是文章正确句子明了,不含糊其辞。

  • 泰安ETC开票流程(ETC开票流程)

    6.输入发票接收邮箱地址,点击右下角即可。

  • 辣条和雪糕能不能一起吃(辣条和雪糕能一起吃吗)

    以下内容大家不妨参考一二希望能帮到您!辣条和雪糕能不能一起吃建议不要一起吃,以防一起肠胃不适,拉肚子。过量的食入冰棍、雪糕可损伤胃黏膜,而经常性的冷刺激,又可使胃黏膜血管收缩,胃液分泌减少,引起食欲下降和消化不良,时间久了还会得胃病。尤其对于患有急慢性肠胃道疾病者,更应少吃或不吃。

  • 秘密花园故事梗概(名著秘密花园故事梗概)

    秘密花园故事梗概主要讲述一场霍乱使性情乖戾的玛丽成了孤儿,她只得被送往远在英国的约克郡的密素斯特庄园和姨父克雷文先生一起生活。克雷文先生伤心妻子之死,变得阴郁古怪消沉遁世,他的庄园里有上百间被锁闭的房子,有十年不许人人进入的秘密花园。不久,被认为离死不远的庄园小主人科林也参加了进来。大自然的力量改变了一切,长年笼罩在阴霾之下的古老庄园及其主人也一同获得了新生。

  • 苏北方言傻子(鲁西南方言杂谈-姑姑)

    姑姑的“姑姑”通常指父亲的姐妹,有时也用作对无血缘关系女性长辈敬称,大家对这个解释都明白,但鲁西南部分县市方言里却是把这种“姑姑”的意思叫成“嫲嫲”。鲁西南方言口语里的“姑姑”又是什么呢--尼姑,鲁西南方言口语把尼姑称为“姑姑”,或者带个语气助词称为姑子、姑姑子、姑姑的、姑姑得。2021年5月拍摄查资料了解到,我国第一个依戒律削发受戒的“姑姑的”是洛阳竹林寺的净检。

  • 2020年南通市实验小学(2020年南通市实验小学校长)

    即入学适龄儿童户籍应与法定监护人在同一户籍,并与法定监护人合法固定住所的住宅房屋产权证一致。入学儿童法定监护人住宅房屋产权证取得、户口迁入时间必须在2020年6月30日以前。提交后系统将自动生成预约报名号码,请截屏留存,现场报名时出示。入校前必须接受健康码核验、检测体温。进入校园后配合学校工作人员安排,全程佩戴口罩,减少聚集。

  • 日本人看的绣春刀(动用100台摄影机和20台电脑拍摄)

    郭京飞近日凭借《都挺好》中的二哥苏明成一角,成为了观众谈论的热点,几乎每更新一集,郭京飞就要上一次热搜。此次执导的《刺杀小说家》虽然不是古装电影,却也涉及路阳擅长的悬疑动作题材。经历了6个月的拍摄,电影还将进行近两年的后期制作,奇幻部分在电影中的比重之大。杨幂在片中将饰演反派屠灵,逼迫雷佳音刺杀董子健。

  • 绿里奇迹电影解说文字版(绿里奇迹电影观后感)

    绿里奇迹电影解说文字版一部长达三小时的电影,看到黑人约翰庞大的身材,黝黑的肤色,木然的表情第一面,突然想到在剪切小视频里看过这部电影梗慨介绍,是关于约翰的魔法,和善良的帮助几人的一面。约翰受刑前乞求不要带头套,可爱的只是因为怕黑,与第一次见到男主时,说了一样要求。另一方面,约翰已经用自己的方式,完结了两个小女孩的案子,用自己的方式了结了犯罪者的生命,哪怕,最终不要世人明白,他也是甘愿赴死的。

  • 激励自己的名人名言(可以激励自己的名言)

    激励自己的名人名言每天早上醒来,你荷包里的最大资产是个小时——你生命宇宙中尚未制造的材料。让生活的句号圈住的人,是无法前时半步的。没有一颗珍珠的闪光,是靠别人涂抹上去的。辛苦是获得一切的定律。恐惧自己受苦的人,已经因为自己的恐惧在受苦。形成天才的决定因素应该是勤奋。人的才华就如海绵的水,没有外力的挤压,它是绝对流不出来的。流出来后,海绵才能吸收新的源泉。

  • 人生的意思(人生的意思是什么)

    下面内容希望能帮助到你,我们来一起看看吧!人生的意思人生是一个汉语词语,拼音是rénshēng,一指人出生,人类产生;二指人的一生;三指人的生存和生活;四指从广义来看,人生指人的生存及人的生活,生存是基础,生活是动态发展。人生是人类从出生至死亡所经历的过程,这当中我们必将经历波折坎坷,经历喜怒哀乐,悲欢离合。唯有如此,才是真正的人生。其拥有的哲理性、深邃性,使之成为文学、影视等艺术作品的永恒主题。