CUDA編程整理

語言: CN / TW / HK

CUDA編程的理論部分可以參考模型部署篇 中的GPU 的 CUDA 編程方法。

雖然CUDA有很多的C代碼,這裏我們主要以C++為主。一個完整的CUDA程序,需要經歷7個步驟

  1. 設置顯卡設備
  2. 分配顯存空間
  3. 從內存到顯存拷貝數據
  4. 執行CUDA並行函數
  5. CUDA函數結束後,將結果從顯存拷貝回內存
  6. 釋放顯存空間
  7. 設備重置

如果是單GPU的話可以省略1跟7兩個步驟。

#include <stdio.h>
#include <stdlib.h>
#include <cuda_runtime_api.h>
#include <iostream>
using namespace std;

/* 核函數 */
__global__ void kernelFunc(float *a) {
    a[threadIdx.x] = 1;
}

int main(int argc, char **argv) {
    //獲取GPU的數量
    int gpuCount = -1;
    cudaGetDeviceCount(&gpuCount);
    cout << gpuCount << endl;
    if (gpuCount < 0) {
        cout << "no device" << endl;
    }
    //設置顯卡設備
    cudaSetDevice(0);
    //分配顯存空間
    float *aGpu;
    cudaMalloc((void**)&aGpu, 16 * sizeof(float));
    //從內存到顯存拷貝數據
    float a[16] = {0};
    cudaMemcpy(aGpu, a, 16 * sizeof(float), cudaMemcpyHostToDevice);
    //執行CUDA並行函數
    kernelFunc <<<1, 16>> >(aGpu);
    //CUDA函數結束後,將結果從顯存拷貝回內存
    cudaMemcpy(a, aGpu, 16 * sizeof(float), cudaMemcpyDeviceToHost);
    for (int i = 0; i < 16; i++) {
        printf("%f", a[i]);
    }
    printf("\n");
    //釋放顯存空間
    cudaFree(aGpu);
    //設備重置
    cudaDeviceReset();

    //獲取設備的屬性
    cudaDeviceProp prop;
    cudaGetDeviceProperties(&prop, 0);
    //塊最大線程數
    printf("maxThreadsPerBlock: %d\n", prop.maxThreadsPerBlock);
    //塊維度最大值
    printf("maxThreadsDim: %d\n", prop.maxThreadsDim[0]);
    //Grid各維度最大值
    printf("maxGridSize: %d\n", prop.maxGridSize[0]);
    //常量內存的大小
    printf("totalConstMem: %d\n", prop.totalConstMem);
    //時鐘頻率
    printf("clockRate: %d\n", prop.clockRate);
    //GPU是否集成
    printf("initegrated: %d\n", prop.integrated);
    return 0;
}

CUDA的源碼文件以.cu為後綴,編譯命令如下(需要先安裝CUDA,安裝方式可以參考烏班圖安裝Pytorch、Tensorflow Cuda環境 )

nvcc main.cu -o main

運行結果

1
1.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.0000001.000000
maxThreadsPerBlock: 1024
maxThreadsDim: 1024
maxGridSize: 2147483647
totalConstMem: 65536
clockRate: 921600
initegrated: 1