考慮一個函數$y=f(\textbf{x}) (R^n\rightarrow R)$,y的Hessian矩陣定義如下:
考慮一個函數:$$f(x)=b^Tx+\frac{1}{2}x^{T}Ax\\其中b^T=[1,3,5], A在代碼中可讀,可以自定義$$
求該函數在x = [0,0,0]處海森矩陣值的python代碼如下:
本代碼需要用到torch.autograd包中的核心函數torch.autograd.grad。相鄰隨筆中有詳細參考解析。大致原理是人工求導並保留了計算圖,所以求二階導很方便。如果想求解析形式的海森矩陣或許matlab中有相關的包能實現。
import torch # 定義函數 x = torch.tensor([0., 0, 0], requires_grad=True) b = torch.tensor([1., 3, 5]) A = torch.tensor([[-5, -3, -0.5], [-3, -2, 0], [-0.5, 0, -0.5]]) y = b@x + 0.5*x@A@x # 計算一階導數,因為我們需要繼續計算二階導數,所以創建並保留計算圖 grad = torch.autograd.grad(y, x, retain_graph=True, create_graph=True) # 定義Print數組,為輸出和進一步利用Hessian矩陣作准備 Print = torch.tensor([]) for anygrad in grad[0]: # torch.autograd.grad返回的是元組 Print = torch.cat((Print, torch.autograd.grad(anygrad, x, retain_graph=True)[0])) print(Print.view(x.size()[0], -1))
輸出結果如下: