Vision layers
1)Upsample
CLASS torch.nn.Upsample(size=None, scale_factor=None, mode='nearest', align_corners=None)
上采樣一個給定的多通道的 1D (temporal,如向量數據), 2D (spatial,如jpg、png等圖像數據) or 3D (volumetric,如點雲數據)數據
假設輸入數據的格式為minibatch x channels x [optional depth] x [optional height] x width。因此對於一個空間spatial輸入,我們期待着4D張量的輸入,即minibatch x channels x height x width。而對於體積volumetric輸入,我們則期待着5D張量的輸入,即minibatch x channels x depth x height x width
對於上采樣有效的算法分別有對 3D, 4D和 5D 張量輸入起作用的 最近鄰、線性,、雙線性, 雙三次(bicubic)和三線性(trilinear)插值算法
你可以給定scale_factor來指定輸出為輸入的scale_factor倍或直接使用參數size指定目標輸出的大小(但是不能同時制定兩個)
參數:
-
size (int or Tuple[int] or Tuple[int, int] or Tuple[int, int, int], optional) – 根據不同的輸入類型制定的輸出大小
-
scale_factor (float or Tuple[float] or Tuple[float, float] or Tuple[float, float, float], optional) – 指定輸出為輸入的多少倍數。如果輸入為tuple,其也要制定為tuple類型
-
mode (str, optional) – 可使用的上采樣算法,有
'nearest'
,'linear'
,'bilinear'
,'bicubic'
and'trilinear'
.默認使用
'nearest'
-
align_corners (bool, optional) – 如果為True,輸入的角像素將與輸出張量對齊,因此將保存下來這些像素的值。僅當使用的算法為
'linear'
,'bilinear'
or'trilinear'時可以使用。
默認設置為
False
輸入輸出形狀:
注意:
當align_corners = True時,線性插值模式(線性、雙線性、雙三線性和三線性)不按比例對齊輸出和輸入像素,因此輸出值可以依賴於輸入的大小。這是0.3.1版本之前這些模式的默認行為。從那時起,默認行為是align_corners = False,如下圖:
上面的圖是source pixel為4*4上采樣為target pixel為8*8的兩種情況,這就是對齊和不對齊的差別,會對齊左上角元素,即設置為align_corners = True時輸入的左上角元素是一定等於輸出的左上角元素。但是有時align_corners = False時左上角元素也會相等,官網上給的例子就不太能說明兩者的不同(也沒有試出不同的例子,大家理解這個概念就行了)
如果您想下采樣/常規調整大小,您應該使用interpolate()方法,這里的上采樣方法已經不推薦使用了。
舉例:
import torch from torch import nn input = torch.arange(1, 5, dtype=torch.float32).view(1, 1, 2, 2) input
返回:
tensor([[[[1., 2.], [3., 4.]]]])
m = nn.Upsample(scale_factor=2, mode='nearest') m(input)
返回:
tensor([[[[1., 1., 2., 2.], [1., 1., 2., 2.], [3., 3., 4., 4.], [3., 3., 4., 4.]]]])
m = nn.Upsample(scale_factor=2, mode='bilinear',align_corners=False) m(input)
返回:
tensor([[[[1.0000, 1.2500, 1.7500, 2.0000], [1.5000, 1.7500, 2.2500, 2.5000], [2.5000, 2.7500, 3.2500, 3.5000], [3.0000, 3.2500, 3.7500, 4.0000]]]])
m = nn.Upsample(scale_factor=2, mode='bilinear',align_corners=True) m(input)
返回:
tensor([[[[1.0000, 1.3333, 1.6667, 2.0000], [1.6667, 2.0000, 2.3333, 2.6667], [2.3333, 2.6667, 3.0000, 3.3333], [3.0000, 3.3333, 3.6667, 4.0000]]]])
m = nn.Upsample(size=(3,5), mode='bilinear',align_corners=True) m(input)
返回:
tensor([[[[1.0000, 1.2500, 1.5000, 1.7500, 2.0000], [2.0000, 2.2500, 2.5000, 2.7500, 3.0000], [3.0000, 3.2500, 3.5000, 3.7500, 4.0000]]]])
如果你使用的數據都是JPG等圖像數據,那么你就能夠直接使用下面的用於2D數據的方法:
2)UpsamplingNearest2d
CLASS torch.nn.UpsamplingNearest2d(size=None, scale_factor=None)
專門用於2D數據的線性插值算法,參數等跟上面的差不多,省略
形狀:
舉例:
m = nn.UpsamplingNearest2d(scale_factor=2) m(input)
input即上面例子的input,返回:
tensor([[[[1., 1., 2., 2.], [1., 1., 2., 2.], [3., 3., 4., 4.], [3., 3., 4., 4.]]]])
m = nn.UpsamplingNearest2d(size=(3,5)) m(input)
返回:
tensor([[[[1., 1., 1., 2., 2.], [1., 1., 1., 2., 2.], [3., 3., 3., 4., 4.]]]])
3)UpsamplingBilinear2d
CLASS torch.nn.UpsamplingBilinear2d(size=None, scale_factor=None)
專門用於2D數據的雙線性插值算法,參數等跟上面的差不多,省略
形狀:
注意:最好還是使用nn.functional.interpolate(..., mode='bilinear', align_corners=True)
舉例:
m = nn.UpsamplingBilinear2d(scale_factor=2) m(input)
返回:
tensor([[[[1.0000, 1.3333, 1.6667, 2.0000], [1.6667, 2.0000, 2.3333, 2.6667], [2.3333, 2.6667, 3.0000, 3.3333], [3.0000, 3.3333, 3.6667, 4.0000]]]])
m = nn.UpsamplingBilinear2d(size=(3,5)) m(input)
返回:
tensor([[[[1.0000, 1.2500, 1.5000, 1.7500, 2.0000], [2.0000, 2.2500, 2.5000, 2.7500, 3.0000], [3.0000, 3.2500, 3.5000, 3.7500, 4.0000]]]])
更復雜的例子可見:pytorch 不使用轉置卷積來實現上采樣