1. cuda的安裝
到 https://developer.nvidia.com/cuda-toolkit 去下載。在安裝的時候一定要自定義安裝,否則將會安裝很多無用的東西。安裝的選項,可以選擇不更新驅動程序。
或者下載離線文件安裝
安裝,選擇自定義安裝。
安裝后,和英偉達cuda相關的程序如下圖所示。
注意,千萬不要勾選 Nsight Visual Studio Edition 2019.2等類似的無用的東西。
2. 測試環境是否安裝成功
運行cmd,輸入nvcc --version
即可查看版本號;
set cuda
,可以查看cuda設置的環境變量。
3. 運行官方自帶的demo
在任務管理器中搜索,Browse CUDA Samples。 或者一般位於 C:\ProgramData\NVIDIA Corporation\CUDA Samples
未編譯前,Debug文件夾中只有三個文件,如圖。
成功編譯后這個位置(具體路徑見上圖)將生成很多文件,在其中找到deviceQueryDrv.exe的程序拖入到cmd中,回車運行。
4. 自己配置cuda項目
(1)打開vs2017,創建一個空win32程序,即cuda_test項目。
(2)選擇cuda_test,點擊右鍵–>項目依賴項–>自定義生成,選擇CUDA10.1。
(3)右鍵源文件文件夾->添加->新建項->選擇CUDA C/C++File,取名cuda_main。
(4)點擊cuda_main.cu的屬性,在配置屬性–>常規–>項類型–>選擇“CUDA C/C++”。
注意:以下步驟中的項目屬性設置均針對x64。
(5)包含目錄配置:
右鍵點擊項目屬性–>屬性–>配置屬性–>VC++目錄–>包含目錄
添加包含目錄:$(CUDA_PATH)\include
(6)庫目錄配置
VC++目錄–>庫目錄
添加庫目錄:$(CUDA_PATH)\lib\x64
(7)依賴項
配置屬性–>鏈接器–>輸入–>附加依賴項
添加庫文件:cublas.lib;cuda.lib;cudadevrt.lib;cudart.lib;cudart_static.lib;OpenCL.lib
cuda_main.cu代碼如下:
#include "cuda_runtime.h" #include "cublas_v2.h" #include <time.h> #include <iostream> using namespace std; // 定義測試矩陣的維度 int const M = 5; int const N = 10; int main() { // 定義狀態變量 cublasStatus_t status; // 在 內存 中為將要計算的矩陣開辟空間 float *h_A = (float*)malloc(N*M * sizeof(float)); float *h_B = (float*)malloc(N*M * sizeof(float)); // 在 內存 中為將要存放運算結果的矩陣開辟空間 float *h_C = (float*)malloc(M*M * sizeof(float)); // 為待運算矩陣的元素賦予 0-10 范圍內的隨機數 for (int i = 0; i < N*M; i++) { h_A[i] = (float)(rand() % 10 + 1); h_B[i] = (float)(rand() % 10 + 1); } // 打印待測試的矩陣 cout << "矩陣 A :" << endl; for (int i = 0; i < N*M; i++) { cout << h_A[i] << " "; if ((i + 1) % N == 0) cout << endl; } cout << endl; cout << "矩陣 B :" << endl; for (int i = 0; i < N*M; i++) { cout << h_B[i] << " "; if ((i + 1) % M == 0) cout << endl; } cout << endl; /* ** GPU 計算矩陣相乘 */ // 創建並初始化 CUBLAS 庫對象 cublasHandle_t handle; status = cublasCreate(&handle); if (status != CUBLAS_STATUS_SUCCESS) { if (status == CUBLAS_STATUS_NOT_INITIALIZED) { cout << "CUBLAS 對象實例化出錯" << endl; } getchar(); return EXIT_FAILURE; } float *d_A, *d_B, *d_C; // 在 顯存 中為將要計算的矩陣開辟空間 cudaMalloc( (void**)&d_A, // 指向開辟的空間的指針 N*M * sizeof(float) // 需要開辟空間的字節數 ); cudaMalloc( (void**)&d_B, N*M * sizeof(float) ); // 在 顯存 中為將要存放運算結果的矩陣開辟空間 cudaMalloc( (void**)&d_C, M*M * sizeof(float) ); // 將矩陣數據傳遞進 顯存 中已經開辟好了的空間 cublasSetVector( N*M, // 要存入顯存的元素個數 sizeof(float), // 每個元素大小 h_A, // 主機端起始地址 1, // 連續元素之間的存儲間隔 d_A, // GPU 端起始地址 1 // 連續元素之間的存儲間隔 ); cublasSetVector( N*M, sizeof(float), h_B, 1, d_B, 1 ); // 同步函數 cudaThreadSynchronize(); // 傳遞進矩陣相乘函數中的參數,具體含義請參考函數手冊。 float a = 1; float b = 0; // 矩陣相乘。該函數必然將數組解析成列優先數組 cublasSgemm( handle, // blas 庫對象 CUBLAS_OP_T, // 矩陣 A 屬性參數 CUBLAS_OP_T, // 矩陣 B 屬性參數 M, // A, C 的行數 M, // B, C 的列數 N, // A 的列數和 B 的行數 &a, // 運算式的 α 值 d_A, // A 在顯存中的地址 N, // lda d_B, // B 在顯存中的地址 M, // ldb &b, // 運算式的 β 值 d_C, // C 在顯存中的地址(結果矩陣) M // ldc ); // 同步函數 cudaThreadSynchronize(); // 從 顯存 中取出運算結果至 內存中去 cublasGetVector( M*M, // 要取出元素的個數 sizeof(float), // 每個元素大小 d_C, // GPU 端起始地址 1, // 連續元素之間的存儲間隔 h_C, // 主機端起始地址 1 // 連續元素之間的存儲間隔 ); // 打印運算結果 cout << "計算結果的轉置 ( (A*B)的轉置 ):" << endl; for (int i = 0; i < M*M; i++) { cout << h_C[i] << " "; if ((i + 1) % M == 0) cout << endl; } // 清理掉使用過的內存 free(h_A); free(h_B); free(h_C); cudaFree(d_A); cudaFree(d_B); cudaFree(d_C); // 釋放 CUBLAS 庫對象 cublasDestroy(handle); getchar(); return 0; }
5 使用VS下的模板創建
打開VS 2017,我們可以觀察到,在VS2017模板一欄下方出現了“NVIDIA/CUDA 10.1”。
直接新建一個CUDA 10.1 Runtime 項目。
右鍵項目 → 屬性 → 配置屬性 → 鏈接器 → 常規 → 附加庫目錄,添加以下目錄:
$(CUDA_PATH_V10_0)\lib$(Platform)
示例代碼如下:
#include "cuda_runtime.h" #include "device_launch_parameters.h" #include <stdio.h> int main() { int deviceCount; cudaGetDeviceCount(&deviceCount); int dev; for (dev = 0; dev < deviceCount; dev++) { int driver_version(0), runtime_version(0); cudaDeviceProp deviceProp; cudaGetDeviceProperties(&deviceProp, dev); if (dev == 0) if (deviceProp.minor = 9999 && deviceProp.major == 9999) printf("\n"); printf("\nDevice%d:\"%s\"\n", dev, deviceProp.name); cudaDriverGetVersion(&driver_version); printf("CUDA驅動版本: %d.%d\n", driver_version / 1000, (driver_version % 1000) / 10); cudaRuntimeGetVersion(&runtime_version); printf("CUDA運行時版本: %d.%d\n", runtime_version / 1000, (runtime_version % 1000) / 10); printf("設備計算能力: %d.%d\n", deviceProp.major, deviceProp.minor); printf("Total amount of Global Memory: %u bytes\n", deviceProp.totalGlobalMem); printf("Number of SMs: %d\n", deviceProp.multiProcessorCount); printf("Total amount of Constant Memory: %u bytes\n", deviceProp.totalConstMem); printf("Total amount of Shared Memory per block: %u bytes\n", deviceProp.sharedMemPerBlock); printf("Total number of registers available per block: %d\n", deviceProp.regsPerBlock); printf("Warp size: %d\n", deviceProp.warpSize); printf("Maximum number of threads per SM: %d\n", deviceProp.maxThreadsPerMultiProcessor); printf("Maximum number of threads per block: %d\n", deviceProp.maxThreadsPerBlock); printf("Maximum size of each dimension of a block: %d x %d x %d\n", deviceProp.maxThreadsDim[0], deviceProp.maxThreadsDim[1], deviceProp.maxThreadsDim[2]); printf("Maximum size of each dimension of a grid: %d x %d x %d\n", deviceProp.maxGridSize[0], deviceProp.maxGridSize[1], deviceProp.maxGridSize[2]); printf("Maximum memory pitch: %u bytes\n", deviceProp.memPitch); printf("Texture alignmemt: %u bytes\n", deviceProp.texturePitchAlignment); printf("Clock rate: %.2f GHz\n", deviceProp.clockRate * 1e-6f); printf("Memory Clock rate: %.0f MHz\n", deviceProp.memoryClockRate * 1e-3f); printf("Memory Bus Width: %d-bit\n", deviceProp.memoryBusWidth); } return 0; }
參考文章