原文出自微信公眾號:Python那些事
一、介紹
pip install numba
Numba 是 python 的即時(Just-in-time)編譯器,即當你調用 python 函數時,你的全部或部分代碼就會被轉換為“即時”執行的機器碼,它將以你的本地機器碼速度運行!它由 Anaconda 公司贊助,並得到了許多其他組織的支持。
在 Numba 的幫助下,你可以加速所有計算負載比較大的 python 函數(例如循環)。它還支持 numpy 庫!所以,你也可以在你的計算中使用 numpy,並加快整體計算,因為 python 中的循環非常慢。你還可以使用 python 標准庫中的 math 庫的許多函數,如 sqrt 等。有關所有兼容函數的完整列表,請查看 此處。
二、為什么選擇 Numba
那么,當有像 cython 和 Pypy 之類的許多其他編譯器時,為什么要選擇 numba?
原因很簡單,這樣您就不必離開寫 python 代碼的舒適區。是的,就是這樣,您根本不需要為了獲得一些的加速來改變您的代碼,這與您從類似的具有類型定義的 cython 代碼獲得的加速相當。那不是很好嗎?
您只需要添加一個熟悉的 python 功能,即添加一個包裝器(一個裝飾器)到您的函數上。類的裝飾器也在開發中了。
所以,您只需要添加一個裝飾器就可以了。例如:
from numba import jit @jit def function(x): # your loop or numerically intensive computations return x
示例:
from numba import jit import functools import time def run_time(func): @functools.wraps(func) def wrapper(): start = time.time() func() end = time.time() cos = end - start return cos return wrapper @run_time @jit() def test(): x = 0 for i in range(100000000): x = x + i @run_time def test2(): x = 0 for i in range(100000000): x = x + i t1 = test() # 結果:0.146484375 t2 = test2() # 結果:13.443359375 print(t1) print(t2)
三、如何使用 Numba
Numba 使用 LLVM 編譯器基礎結構 將原生 python 代碼轉換成優化的機器碼。使用 numba 運行代碼的速度可與 C/C++ 或 Fortran 中的類似代碼相媲美。
以下是代碼的編譯方式:
首先,Python 函數被傳入,優化並轉換為 numba 的中間表達,然后在類型推斷(type inference)之后,就像 numpy 的類型推斷(所以 python float 是一個 float64),它被轉換為 LLVM 可解釋代碼。然后將此代碼提供給 LLVM 的即時編譯器以生成機器碼。
您可以根據需要在運行時或導入時 生成 機器碼,導入需要在 CPU(默認)或 GPU 上進行。
四、 使用 numba 的基本功能(只需要加上 @jit !)
為了獲得最佳性能,numba 實際上建議在您的 jit 裝飾器中加上 nopython=True
參數,加上后就不會使用 Python 解釋器了。或者您也可以使用 @njit
。如果您加上 nopython=True
的裝飾器失敗並報錯,您可以用簡單的 @jit
裝飾器來編譯您的部分代碼,對於它能夠編譯的代碼,將它們轉換為函數,並編譯成機器碼。然后將其余部分代碼提供給 python 解釋器。
所以,您只需要這樣做:
from numba import njit, jit @njit # 或者像下面這樣使用 # @jit(nopython=True) def function(a, b): # your loop or numerically intensive computations return result
當使用 @jit
時,請確保您的代碼有 numba 可以編譯的內容,比如包含庫(numpy)和它支持的函數的計算密集型循環。否則它將不會編譯任何東西,並且您的代碼將比沒有使用 numba 時更慢,因為存在 numba 內部代碼檢查的額外開銷。
還有更好的一點是,numba 會對首次作為機器碼使用后的函數進行緩存。因此,在第一次使用之后它將更快,因為它不需要再次編譯這些代碼,如果您使用的是和之前相同的參數類型。
如果您的代碼是 可並行化 的,您也可以傳遞 parallel=True
作為參數,但它必須與 nopython=True
一起使用,目前這只適用於CPU。
您還可以指定希望函數具有的函數簽名,但是這樣就不會對您提供的任何其他類型的參數進行編譯。例如:
from numba import jit, int32 @jit(int32(int32, int32)) def function(a, b): # your loop or numerically intensive computations return result # or if you haven t imported type names # you can pass them as string @jit( int32(int32, int32) ) def function(a, b): # your loop or numerically intensive computations return result
現在您的函數只能接收兩個 int32 類型的參數並返回一個 int32 類型的值。通過這種方式,您可以更好地控制您的函數。如果需要,您甚至可以傳遞多個函數簽名。
您還可以使用 numba 提供的其他裝飾器:
-
@vectorize:允許將標量參數作為 numpy 的 ufuncs 使用,
-
@guvectorize:生成 NumPy 廣義上的
ufunc
s, -
@stencil:定義一個函數使其成為 stencil 類型操作的核函數
-
@jitclass:用於 jit 類,
-
@cfunc:聲明一個函數用於本地回調(被C/C++等調用),
-
@overload:注冊您自己的函數實現,以便在
nopython
模式下使用,例如:@overload(scipy.special.j0)
。
Numba 還有 Ahead of time(AOT)編譯,它生成不依賴於 Numba 的已編譯擴展模塊。但:
-
它只允許常規函數(ufuncs 就不行),
-
您必須指定函數簽名。並且您只能指定一種簽名,如果需要指定多個簽名,需要使用不同的名字。
它還根據您的CPU架構系列生成通用代碼。
五、 @vectorize 裝飾器
通過使用 @vectorize 裝飾器,您可以對僅能對標量操作的函數進行轉換,例如,如果您使用的是僅適用於標量的 python 的 math
庫,則轉換后就可以用於數組。這提供了類似於 numpy 數組運算(ufuncs)的速度。例如:
from numba import vectorize, float64 @vectorize([float64(float64, float64)]) def f(x, y): return x + y
您還可以將 target
參數傳遞給此裝飾器,該裝飾器使 target 參數為 parallel
時用於並行化代碼,為 cuda
時用於在 cudaGPU 上運行代碼。
from numba import vectorize @vectorize(target="parallel") def f(x, y): return x + y
使 target=“parallel”
或 “cuda”
進行矢量化通常比 numpy 實現的代碼運行得更快,只要您的代碼具有足夠的計算密度或者數組足夠大。如果不是,那么由於創建線程以及將元素分配到不同線程需要額外的開銷,因此可能耗時更長。所以運算量應該足夠大,才能獲得明顯的加速。
六、 在GPU上運行函數
您也可以像裝飾器一樣傳遞 @jit 來運行 cuda/GPU 上的函數。為此您必須從 numba
庫中導入 cuda
。但是要在 GPU 上運行代碼並不像之前那么容易。為了在 GPU 上的數百甚至數千個線程上運行函數,需要先做一些初始計算。實際上,您必須聲明並管理網格,塊和線程的層次結構。這並不那么難。
要在GPU上執行函數,您必須定義一個叫做 核函數 或 設備函數 的函數。首先讓我們來看 核函數。
關於核函數要記住一些要點:
a)核函數在被調用時要顯式聲明其線程層次結構,即塊的數量和每塊的線程數量。您可以編譯一次核函數,然后用不同的塊和網格大小多次調用它。
b)核函數沒有返回值。因此,要么必須對原始數組進行更改,要么傳遞另一個數組來存儲結果。為了計算標量,您必須傳遞單元素數組。
# Defining a kernel function from numba import cuda @cuda.jit def func(a, result): # Some cuda related computation, then # your computationally intensive code. # (Your answer is stored in result )
因此,要啟動核函數,您必須傳入兩個參數:
-
每塊的線程數,
-
塊的數量。
例如:
threadsperblock = 32 blockspergrid = (array.size + (threadsperblock - 1)) // threadsperblock func[blockspergrid, threadsperblock](array)
每個線程中的核函數必須知道它在哪個線程中,以便了解它負責數組的哪些元素。Numba 只需調用一次即可輕松獲得這些元素的位置。
from numba import cuda @cuda.jit def func(a, result): pos = cuda.grid(1) # For 1D array # x, y = cuda.grid(2) # For 2D array if pos < a.shape[0]: result[pos] = a[pos] * (some computation)
為了節省將 numpy 數組復制到指定設備,然后又將結果存儲到 numpy 數組中所浪費的時間,Numba 提供了一些 函數 來聲明並將數組送到指定設備,如:numba.cuda.device_array
,numba.cuda。device_array_like
,numba.cuda.to_device
等函數來節省不必要的復制到 cpu 的時間(除非必要)。
另一方面,設備函數 只能從設備內部(通過核函數或其他設備函數)調用。比較好的一點是,您可以從 設備函數 中返
from numba import cuda @cuda.jit(device=True) def device_function(a, b): return a + b
您還應該在這里查看 Numba 的 cuda 庫支持的功能。
Numba 在其 cuda 庫中也有自己的 原子操作,隨機數生成器,共享內存實現(以加快數據的訪問)等功能。
ctypes/cffi/cython 的互用性:
-
cffi
– 在 nopython 模式下支持調用 CFFI 函數。 -
ctypes
– 在 nopython 模式下支持調用 ctypes 包裝函數。 -
Cython 導出的函數是 可調用 的。