DAY37:

  • 9 replies
  • 716 views
*

sisiy

  • *****
  • 175
    • 查看个人资料
DAY37:
« 于: 六月 21, 2018, 11:25:14 am »
B.2. Variable Memory Space SpecifiersVariable memory space specifiers denote the memory location on the device of a variable.An automatic variable declared in device code without any of the __device__, __shared__ and __constant__ memory space specifiers described in this section generally resides in a register. However in some cases the compiler might choose to place it in local memory, which can have adverse performance consequences as detailed in Device Memory Accesses.
B.2.1. __device__The __device__ memory space specifier declares a variable that resides on the device.At most one of the other memory space specifiers defined in the next two sections may be used together with __device__ to further denote which memory space the variable belongs to. If none of them is present, the variable:
  • Resides in global memory space,
  • Has the lifetime of the CUDA context in which it is created,
  • Has a distinct object per device,
  • Is accessible from all the threads within the grid and from the host through the runtime library (cudaGetSymbolAddress() / cudaGetSymbolSize() / cudaMemcpyToSymbol() / cudaMemcpyFromSymbol()).



B.2.2. __constant__The __constant__ memory space specifier, optionally used together with __device__, declares a variable that:
  • Resides in constant memory space,
  • Has the lifetime of the CUDA context in which it is created,
  • Has a distinct object per device,
  • Is accessible from all the threads within the grid and from the host through the runtime library (cudaGetSymbolAddress() / cudaGetSymbolSize() / cudaMemcpyToSymbol() / cudaMemcpyFromSymbol()).



B.2.3. __shared__The __shared__ memory space specifier, optionally used together with __device__, declares a variable that:
  • Resides in the shared memory space of a thread block,
  • Has the lifetime of the block,
  • Has a distinct object per block,
  • Is only accessible from all the threads within the block,
  • Does not have a constant address.
When declaring a variable in shared memory as an external array such asextern __shared__ float shared[];the size of the array is determined at launch time (see Execution Configuration). All variables declared in this fashion, start at the same address in memory, so that the layout of the variables in the array must be explicitly managed through offsets. For example, if one wants the equivalent ofshort array0[128];float array1[64];int   array2[256];in dynamically allocated shared memory, one could declare and initialize the arrays the following way:
程序代码: [选择]
extern __shared__ float array[];
__device__ void func()      // __device__ or __global__ function
{
    short* array0 = (short*)array;
    float* array1 = (float*)&array0[128];
    int*   array2 =   (int*)&array1[64];
}

Note that pointers need to be aligned to the type they point to, so the following code, for example, does not work since array1 is not aligned to 4 bytes.
程序代码: [选择]
extern __shared__ float array[];
__device__ void func()      // __device__ or __global__ function
{
    short* array0 = (short*)array;
    float* array1 = (float*)&array0[127];
}

Alignment requirements for the built-in vector types are listed in Table 3.



*

sisiy

  • *****
  • 175
    • 查看个人资料
(无标题)
« 回复 #1 于: 六月 21, 2018, 05:14:40 pm »
今天这个章节主要是说了GPU上不同种类的存储器, 在使用它们的时候, 一定情况下所需要的修饰符.

还记得前几天说过, 一张GPU能有不同的存储器种类吗? 今天这章节则是说, 如何在程序中使用它们.

传统上, 在GPU上运行的kernel里,直接定义或者访问的各种存储器上的变量, 数组之类的, 需要加上特定的前缀:

(1)Global memory: __device__前缀


(2)Constant Memory: __constant__前缀


(3)Shared memory: __shared__前缀

(4)Local memory: (不需要任何前缀, 编译器全自动处理)


注意这里的local memory比较奇特, 因为前几日说过, 它(local memory)是和寄存器一起使用的, 编译器能使用寄存器就使用寄存器, 不能则使用local memory(较慢),正因为是编译器自动处理的, 所以local memory不需要任何前缀.

那么本章节就剩下前3种存储器类型需要说明了.

根据以前的章节, 聪明的你已经知道, global memory是基于显存(或者映射的内存, 或者映射的其他的伙伴卡的显存---但这里为了简单统称显存)

显存是在GPU设备上的, 静态的定义可以直接使用:

 
程序代码: [选择]
__device__ your_type your_variable[...];
__global__ your_kernel()
{
   //use your variable here
}



则是一种典型的静态定义.

另外一种则是手工的动态分配global memory, 例如通过cudaMalloc*()之类的函数.如果是动态定义的, 则需要单独将kernel做一个修改:

程序代码: [选择]

//删除 __device__ your_type your_variable[...];
__global__ your_kernel(your_type *your_variable)
{
   //use your variable here
}
请注意这个动态分配的global memory和静态分配的global memory的区别:

(1)只有静态的才有__device__和具体定义
(2)动态的不出现直接的定义, 则是在Host Code中分配, 当成一个指针传递给kernel(注意*号)


静态定义的一般比较适合懒人. Kernel运行的时候, 需要的Global memory(显存)就已经准备好了.而动态的有更大的控制力, 适合需要更细微的代码控制能力的人使用.(此外, 静态的全局定义, 不符合很多现在编程模式所需要的, 只有输入和输出, 而没有全局状态的标准要求)

但是无论怎么说, 至少你已经知道了, 可以直接来个__device__定义显存上的变量或者数组了.

第二点则是: constant memory. 请注意在很早之前, 它的标准写法是:__device__ __constant__ your_type your_variable[...];

不过现在已经被大家缩写为__constant__这一个前缀了.不过本章节依然为你指出了, 同时使用2个前缀是可以的. 所以遇到老代码不要惊讶.


constant memory实际上在现在的卡种, 分成多个部分,

(1)你手工静态分配的constant memory, 最大64KB

(2)编译器自动搜集来的一些常量, 从你的代码中, 例如:

int c = a * 888 + 999;

编译器很可能将这里的888或者999或者全部都放入constant memory, 并全自动的使用它.

(注意这个只是可能. 编译器还有其他更好的位置放置它, 例如编译成立即数. 但是这里只提一下自动放入constant memory)

(3)你的kernel的参数, 在现在的卡中(2.0+)也将自动放入constant memory

请注意如果你一旦适合在程序里面进行对kernel的参数进行修改, 例如:
程序代码: [选择]

__global__ your_kernel(int *p.....)
{
   //...
   p ++;
}


类似这种代码, 则p将被自动生成一个同名的副本, 享受普通变量的待遇(自动放入寄存器或者local memory)


(4) 普通的global memory, 但用户要求通过constant cache进行读取, 例如用户知道一些非常小的常数数组, 而且warp内部的线程非常一致的访问同一个下标的时候(Load Uniform, LDU操作), 这个手册后面有说明.

大致这4种是constant memory的使用. 请注意, kernel参数这里是很多人经常疑惑的, 很多人担心, 访问kernel的参数代价非常高昂吗?

答案是否定的. 和你的普通__constant__一样代价很低.

很多用CUDA的人整天疑神疑鬼. 用这个会慢吗?用那个会慢吗?类似这种的——不会啊. 别乱想,真要感觉慢, 你先去考虑换一个好卡再说,很多时候不是你代码写的渣, 而是你的卡太烂。


然后请注意的另外一点是, 正常使用的, 你只有(1)中的手工__constant__静态分配的才能用到. 其他均不常用(要么不常用, 要么是编译器自动的, 你控制不了)

而__constant__的内容实质上是可以改变的, 只是在一个kernel运行的期间, 不能改变.在没有kernel运行的时候, 可以通过cudaMemcpyToSymbol之类的改变它里面的值. 给下个kernel用.所谓常数, 只是在一个kernel的运行期间常数罢了.

这点需要注意.(cudaMemcpyToSymbol等于普通的cudaGetSymbolAddress得到地址后 + 一个普通的cudaMemcpy而已. 直接cudaMemcpyToSymbol能简单一点)

这也是很多人经常在使用cudaMemcpyToSymbol时候的疑惑.特别是因为CUDA历史原因, Symbol的使用, 在不同时期的CUDA上, 有两种用法:一种是将你的变量名在Host中进行cudaMemcpyToSymbol的时候, 必须加引号:

例如:
有: __constant__ int dog_parameters[64];


那么在cudaMemcpyToSymbol的时候, 历史原因, 有两种用法:cudaMemcpyToSymbol("dog_parameters", .....);和cudaMemcpyToSymbol(dog_paramemters, .....);

这个问题是新手经常遇到的问题.特别是你看到了老书的时候(很多人手里头都是老书. 我们已经替无数本市面上的各家出版社的各本书进行debug了.....),现在的新版本CUDA只有没有引号的用法(下面那行)

维护老代码的人员, 或者手头还有老书的人员一定要注意这点. 这个是说的__constant__






*

sisiy

  • *****
  • 175
    • 查看个人资料
(无标题)
« 回复 #2 于: 六月 21, 2018, 05:42:37 pm »
今天这个章节主要是说了GPU上不同种类的存储器, 在使用它们的时候, 一定情况下所需要的修饰符.

还记得前 ...

关于__shared__, 这个是大家喜闻乐见, 耳熟能详的.

前几天说的它的3大作用大家应该还记得吧. 忘记了? 不妨往前翻阅章节.

而这里需要说的则是, 如同global memory一样, 这个也有动态分配的和静态分配的两种:
(1)静态分配的是:
 
程序代码: [选择]
__global__ void your_kernel(...)
{
   __shared__ your_type your_variable[....]; //变量或者数组, 一行或者多行, 累计不得超过48KB
}

因为48KB = 48 * 1024 = 49152,也就是0xC000

经常有人在编译的时候看到报错, 说shared memory大小超过了0xC000, 则说明你超了48KB了.需要降低它(除了7.0计算能力,7.0计算能力的卡能用到96KB, 但需要动态分配)


(2)动态分配则是:

程序代码: [选择]
__global__ void your_kernel()
{
   extern __shared__ your_type your_variable[空的]; //请注意空的是指[]
}

和静态的有两点形式上的区别:

(1)前面多加了一个extern

(2)后面的方括号内没有东西.


而在使用上则具有多种区别:
使用区别(1): 静态分配的多个变量或者数组, 它们的地址会不同. 例如你有8个1KB的float数组, 会得到地址分别是0, 1K, 2K, 3K....

而动态分配的虽然也可以写成多个extern __shared__的行在里面, 但是它们所定义的所有数组的起始地址都是一样的, 这就需要你额外进行shared memory上的缓冲区拼接, 手工计算偏移量或者指针.

是不是很眼熟? 没错,

这就和前几天说的, 手工将几个小的global memory缓冲区拼接起来, 能一次性都传输完, 从而提高性能, 所需要使用的技术或者说技巧是一样的.请也需要注意一下元素类型, 和偏移量, 对齐方面的要求.你是知道的, 作为线程的访存, 元素不对齐会挂掉kernel的. 一定要注意了.
请注意手册这里是将extern那行写在kernel外面的, 我建议总是写在里面.
不过这不是重点, 用户可以随心的选择喜欢的风格.有人可能会问, 我可否两种分配方式同时使用? 答案是可以的,这就如同你同时可以使用2种风格的显存分配一样——__device__的静态分配 + cudaMalloc*()的动态分配

也就是最终会形成这样的代码:

程序代码: [选择]
__global__ void your_kernel()
{
   __shared__ int dog[256]; //1KB
   __shared__ int wolf[256]; //1KB
   extern __shared__ int cat[]; //size unknown
}

请注意如何混合使用了, dog和wolf的地址是明确的, 可以直接使用.




连接在后面的cat[]如果再后面还有东西, 例如还有一个extern __shared__ int donkey[];, 则需要你像刚才说的那样好好计算地址.

我建议用户不写多个extern,而是只有1个. 如果有多个extern的shared memory分配要求, 建议只写一个, 然后手工推导指针.
例如: int *p_ass = (int *)(cat + 888); //假设的.

这种不容易出错.


最后再来到一点, 就是计算能力7.0允许支持大于48KB的shared memory分配,但需要使用动态分配的方式. 目前尚未知道在这种情况下, 是否允许静态+动态的混合使用, 以超过48KB,还是必须全部是动态的, 才能超过48KB.(但纯静态的是不能超过48KB的,建议用户自行试验一下(一试即可, 我还没有7.0的卡)

但需要补充说明的是, 你如果发现了一些计算能力的卡上, shared memory上不那么对齐(例如一个float4, 你手工对齐到4B而不是要求的16B),结果一切正常.

这说明恭喜你发现了一些计算能力的小秘密(或者说更先进性? 毕竟更宽松的对齐要求是一个进步),但目前手册说的是要求你严格对齐. 那么请按照手册的来. undocumented的内容将来随时可能随着NV的新卡的问世而改变.



*

sisiy

  • *****
  • 175
    • 查看个人资料
(无标题)
« 回复 #3 于: 六月 22, 2018, 01:07:29 pm »
有网友问:很好奇,如果一个kernel内使用多个extern shared,那么会发生什么。

(无标题)
« 回复 #4 于: 六月 22, 2018, 02:46:21 pm »
有网友问:很好奇,如果一个kernel内使用多个extern shared,那么会发生什么。

你好奇的问题应当得到直接的答案:

使用多个extern的__shared__等同于只有1个, 他们的地址是一样的,只是多了多种不同的名字罢了。

不妨自行用NSight调试的时候看一下, 很容易发现这点的。


Re: DAY37:
« 回复 #5 于: 八月 24, 2019, 09:52:52 pm »
关于用 __device__ 修饰的全局内存变量,我不清楚它相对于动态分配的全局内存变量有何优势?你说它适合比较懒的人用,但我不清楚我是懒还是不懒。我觉得在程序中用它不是很好,因为它污染了文件的变量名(它在文件内所有的核函数中都可见?),不符合增强程序内聚力的软件工程思想。不知我的理解是否正确?另外,有没有非常值得用静态全局内存变量的地方?


Re: DAY37:
« 回复 #6 于: 八月 24, 2019, 09:56:56 pm »
另外,此处用__device__定义的变量,数组的元素个数是否一定要是常量,不能是变量?

在某种程度上,可不可以说,__device__变量相当于C++中的静态数组,例如

int a[10];

而用cudaMalloc()分配内存的变量相当于C++中的动态数组。这样类比是否正确?

Re: DAY37:
« 回复 #7 于: 八月 26, 2019, 01:39:44 pm »
目前尚不能支持:

__device__ type var[你需要的动态大小]格式的。

也就是说,目前只能是你说的静态的。

好处主要有两点:
(1)减少了kernel的参数传递,没有它,你必须传递一次额外的参数。
(2)很多形如__device__ float bruce[H][W];的形式,推导实际地址的时候(即: bruce首地址 + 4 * (y * W + x))的时候,可以让编译器方便的考虑编译时刻的优化(因为H,W都是编译时刻已知的)。不过第二点也可以通过形如float (*p)[H][W]的参数进行(其中H可以省略,即参数float (*p)[][W])。

关于你说的命名污染、对程序内聚力的破坏,和不符合软件工程学的相关问题,这些我不懂,暂时无法回答。

Re: DAY37:
« 回复 #8 于: 八月 26, 2019, 03:20:42 pm »
目前尚不能支持:

__device__ type var[你需要的动态大小]格式的。

也就是说,目前只能是你说的静态的。

好处主要有两点:
(1)减少了kernel的参数传递,没有它,你必须传递一次额外的参数。
(2)很多形如__device__ float bruce[H][W];的形式,推导实际地址的时候(即: bruce首地址 + 4 * (y * W + x))的时候,可以让编译器方便的考虑编译时刻的优化(因为H,W都是编译时刻已知的)。不过第二点也可以通过形如float (*p)[H][W]的参数进行(其中H可以省略,即参数float (*p)[][W])。

关于你说的命名污染、对程序内聚力的破坏,和不符合软件工程学的相关问题,这些我不懂,暂时无法回答。


非常感谢你的解答。我现在清楚了。这样定义的是静态的(大小已知)、全局的(文件可见)全局内存变量。

关于它的可见范围和定义它的地方,我刚刚测试了两点:

1)只可以在任何函数(包括主机函数)外部定义,否则给出如下错误:
error: a "__device__" variable declaration is not allowed inside a function body


2)可见范围是当前文件(或者翻译单元)定义该变量之后的所有核函数和设备函数

这是我的测试代码:

#include <stdio.h>

__device__ int x[1];

void __device__ set_value()
{
   x[0] = 3;
}

void __global__ kernel_1()
{
    set_value();
    printf("kernel_1: x[0] = %d\n", x[0]);
}

void __global__ kernel_2()
{
    printf("kernel_2: x[0] = %d\n", x[0]);
}

int main(void)
{
    kernel_1<<<1, 1>>>();
    kernel_2<<<1, 1>>>();
    cudaDeviceReset();
    return 0;
}




Re: DAY37:
« 回复 #9 于: 八月 27, 2019, 01:22:14 pm »
关于是否仅限同一个文件内可见,这点还是不对的。可以跨文件使用的。请参考手册中的分步编译章节,以及,搜索-rdc=true选项。

跨文件使用__device__有时候还是重要的。