torch.nn.functional
译者:hijkzzz
卷积函数
conv1d
torch.nn.functional.conv1d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1) → Tensor
对由多个输入平面组成的输入信号进行一维卷积.
有关详细信息和输出形状, 请参见Conv1d
.
注意
在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True
来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 Reproducibility 了解背景.
参数:
* input – 输入张量, 形状为
* weight – 卷积核, 形状为
* bias – 可选的偏置, 形状为 . 默认值: None
* stride – 卷积核的步幅, 可以是单个数字或一个元素元组(sW,)
. 默认值: 1
* padding – 在输入的两边隐式加零. 可以是单个数字或一个元素元组(padW, )
. 默认值: 0
* dilation – 核元素之间的空洞. 可以是单个数字或单元素元组(dW,)
. 默认值: 1
* groups – 将输入分组, 应该可以被组的数目整除. 默认值: 1
例子:
>>> filters = torch.randn(33, 16, 3)
>>> inputs = torch.randn(20, 16, 50)
>>> F.conv1d(inputs, filters)
conv2d
torch.nn.functional.conv2d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1) → Tensor
对由多个输入平面组成的输入图像应用二维卷积.
有关详细信息和输出形状, 请参见Conv2d
.
注意
在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True
来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 Reproducibility 了解背景.
参数:
* input – 输入张量, 形状为
* weight – 卷积核, 形状为
* bias – 可选的偏置, 形状为 . 默认值: None
* stride – 卷积核的步幅, 可以是单个数字或一个元素元组 (sH, sW)
. 默认值: 1
* padding – 在输入的两边隐式加零. 可以是单个数字或一个元素元组 (padH, padW)
. 默认值: 0
* dilation – 核元素之间的空洞. 可以是单个数字或单元素元组 (dH, dW)
. 默认值: 1
* groups – 将输入分组, 应该可以被组的数目整除. 默认值: 1
例子:
>>> # With square kernels and equal stride
>>> filters = torch.randn(8,4,3,3)
>>> inputs = torch.randn(1,4,5,5)
>>> F.conv2d(inputs, filters, padding=1)
conv3d
torch.nn.functional.conv3d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1) → Tensor
对由多个输入平面组成的输入图像应用三维卷积.
有关详细信息和输出形状, 请参见 Conv3d
.
注意
在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True
来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 Reproducibility 了解背景.
参数:
* input – 输入张量, 形状为
* weight – 卷积核, 形状为
* bias – 可选的偏置, 形状为 . 默认值: None
* stride – 卷积核的步幅, 可以是单个数字或一个元素元组 (sT, sH, sW)
. 默认值: 1
* padding – 在输入的两边隐式加零. 可以是单个数字或一个元素元组 (padT, padH, padW)
. 默认值: 0
* dilation – 核元素之间的空洞. 可以是单个数字或单元素元组 (dT, dH, dW)
. 默认值: 1
* groups – 将输入分组, 应该可以被组的数目整除. 默认值: 1
例子:
>>> filters = torch.randn(33, 16, 3, 3, 3)
>>> inputs = torch.randn(20, 16, 50, 10, 20)
>>> F.conv3d(inputs, filters)
conv_transpose1d
torch.nn.functional.conv_transpose1d(input, weight, bias=None, stride=1, padding=0, output_padding=0, groups=1, dilation=1) → Tensor
对由多个输入平面组成的输入信号应用一维转置卷积操作, 有时也称为反卷积.
有关详细信息和输出形状, 请参见 ConvTranspose1d
注意
在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True
来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 Reproducibility 了解背景.
参数:
* input – 输入张量, 形状为
* weight – 卷积核, 形状为
* bias – 可选的偏置, 形状为 . 默认值: None
* stride – 卷积核的步幅, 可以是单个数字或一个元素元组 (sW,)
. 默认值: 1
* padding – 输入中的每个维度的两边都将添加零填充kernel_size - 1 - padding
. 可以是单个数字或元组 (padW,)
. 默认值: 0
* output_padding – 添加到输出形状中每个维度的一侧的额外大小. 可以是单个数字或元组 (out_padW)
. 默认值: 0
* groups – 将输入分组, 应该可以被组的数目整除. 默认值: 1
* dilation – 核元素之间的空洞. 可以是单个数字或单元素元组 (dW,)
. 默认值: 1
例子:
>>> inputs = torch.randn(20, 16, 50)
>>> weights = torch.randn(16, 33, 5)
>>> F.conv_transpose1d(inputs, weights)
conv_transpose2d
torch.nn.functional.conv_transpose2d(input, weight, bias=None, stride=1, padding=0, output_padding=0, groups=1, dilation=1) → Tensor
对由多个输入平面组成的输入图像应用二维转置卷积操作, 有时也称为反卷积.
有关详细信息和输出形状, 请参见 ConvTranspose2d
.
注意
在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True
来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 Reproducibility 了解背景.
参数:
* input – 输入张量, 形状为
* weight – 卷积核, 形状为
* bias –可选的偏置, 形状为 . 默认值: None
* stride – 卷积核的步幅, 可以是单个数字或一个元素元组 (sH, sW)
. 默认值: 1
* padding – 输入中的每个维度的两边都将添加零填充kernel_size - 1 - padding
. 可以是单个数字或元组 (padH, padW)
. 默认值: 0
* output_padding – 添加到输出形状中每个维度的一侧的额外大小. 可以是单个数字或元组 (out_padH, out_padW)
. 默认值: 0
* groups – 将输入分组, 应该可以被组的数目整除. 默认值: 1
* dilation – 核元素之间的空洞. 可以是单个数字或单元素元组 (dH, dW)
. 默认值: 1
例子:
>>> # With square kernels and equal stride
>>> inputs = torch.randn(1, 4, 5, 5)
>>> weights = torch.randn(4, 8, 3, 3)
>>> F.conv_transpose2d(inputs, weights, padding=1)
conv_transpose3d
torch.nn.functional.conv_transpose3d(input, weight, bias=None, stride=1, padding=0, output_padding=0, groups=1, dilation=1) → Tensor
对由多个输入平面组成的输入图像应用一个三维转置卷积操作, 有时也称为反卷积
有关详细信息和输出形状, 请参见 ConvTranspose3d
.
注意
在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True
来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 Reproducibility 了解背景.
参数:
* input – 输入张量, 形状为
* weight – 卷积核, 形状为
* bias –可选的偏置, 形状为 . 默认值: None
* stride – 卷积核的步幅, 可以是单个数字或一个元素元组 (sT, sH, sW)
. 默认值: 1
* padding – 输入中的每个维度的两边都将添加零填充kernel_size - 1 - padding
. 可以是单个数字或元组 (padT, padH, padW)
. 默认值: 0
* output_padding – 添加到输出形状中每个维度的一侧的额外大小. 可以是单个数字或元组 (out_padT, out_padH, out_padW)
. 默认值: 0
* groups – 将输入分组, 应该可以被组的数目整除. 默认值: 1
* dilation – 核元素之间的空洞. 可以是单个数字或单元素元组 (dT, dH, dW)
. 默认值: 1
例子:
>>> inputs = torch.randn(20, 16, 50, 10, 20)
>>> weights = torch.randn(16, 33, 3, 3, 3)
>>> F.conv_transpose3d(inputs, weights)
unfold
torch.nn.functional.unfold(input, kernel_size, dilation=1, padding=0, stride=1)
从批量的输入张量中提取滑动局部块.
警告
目前, 仅支持四维(4D)的输入张量(批量的类似图像的张量).
细节请参阅 torch.nn.Unfold
fold
torch.nn.functional.fold(input, output_size, kernel_size, dilation=1, padding=0, stride=1)
将一组滑动局部块数组合成一个大的张量.
警告
目前, 仅支持四维(4D)的输入张量(批量的类似图像的张量).
细节请参阅 torch.nn.Fold
池化函数
avg_pool1d
torch.nn.functional.avg_pool1d(input, kernel_size, stride=None, padding=0, ceil_mode=False, count_include_pad=True) → Tensor
对由多个输入平面组成的输入信号应用一维平均池化.
有关详细信息和输出形状, 请参见 AvgPool1d
.
参数:
* input – 输入张量, 形状为
* kernel_size – 窗口的大小. 可以是单个数字或元组
* stride – 窗户的步幅. 可以是单个数字或元组 (sW,)
. 默认值: kernel_size
* padding – 在输入的两边隐式加零. 可以是单个数字或一个元素元组 (padW,)
. 默认值: 0
* ceil_mode – 如果 True
, 将用 ceil
代替 floor
计算输出形状. 默认值: False
* count_include_pad – 如果 True
, 将在平均计算中包括零填充. 默认值: True
例子:
>>> # pool of square window of size=3, stride=2
>>> input = torch.tensor([[[1,2,3,4,5,6,7]]])
>>> F.avg_pool1d(input, kernel_size=3, stride=2)
tensor([[[ 2., 4., 6.]]])
avg_pool2d
torch.nn.functional.avg_pool2d(input, kernel_size, stride=None, padding=0, ceil_mode=False, count_include_pad=True) → Tensor
在 区域应用二维平均池化, 步幅为 . 输出特征的数量等于输入平面的数量.
有关详细信息和输出形状, 请参见 AvgPool2d
.
参数:
* input – input tensor
* kernel_size – 池化区域的大小, 可以是一个数字或者元组
* stride – 池化步幅, 可以是一个数字或者元组 (sH, sW)
. 默认值: kernel_size
* padding – 在输入的两边隐式加零. 可以是单个数字或一个元素元组 (padH, padW)
. 默认值: 0
* ceil_mode – 如果 True
, 将用 ceil
代替 floor
计算输出形状. 默认值: False
* count_include_pad – 如果 True
, 将在平均计算中包括零填充. 默认值: True
avg_pool3d
torch.nn.functional.avg_pool3d(input, kernel_size, stride=None, padding=0, ceil_mode=False, count_include_pad=True) → Tensor
应 区域应用三维平均池化, 步幅为 . 输出特征的数量等于 .
有关详细信息和输出形状, 请参见 AvgPool3d
.
参数:
* input – 输入张量
* kernel_size – 池化区域的大小, 可以是一个数字或者元组
* stride – 池化步幅, 可以是一个数字或者元组 (sT, sH, sW)
. 默认值: kernel_size
* padding – 在输入的两边隐式加零. 可以是单个数字或一个元素元组 (padT, padH, padW)
, 默认值: 0
* ceil_mode – 如果 True
, 将用 ceil
代替 floor
计算输出形状. 默认值: False
* count_include_pad – 如果 True
, 将在平均计算中包括零填充. 默认值: True
max_pool1d
torch.nn.functional.max_pool1d(*args, **kwargs)
对由多个输入平面组成的输入信号应用一维最大池化.
详情见 MaxPool1d
.
max_pool2d
torch.nn.functional.max_pool2d(*args, **kwargs)
对由多个输入平面组成的输入信号应用二维最大池化.
详情见 MaxPool2d
.
max_pool3d
torch.nn.functional.max_pool3d(*args, **kwargs)
对由多个输入平面组成的输入信号上应用三维最大池化.
详情见 MaxPool3d
.
max_unpool1d
torch.nn.functional.max_unpool1d(input, indices, kernel_size, stride=None, padding=0, output_size=None)
计算MaxPool1d
的偏逆.
请参见 MaxUnpool1d
.
max_unpool2d
torch.nn.functional.max_unpool2d(input, indices, kernel_size, stride=None, padding=0, output_size=None)
计算MaxPool2d
的偏逆.
详情见 MaxUnpool2d
.
max_unpool3d
torch.nn.functional.max_unpool3d(input, indices, kernel_size, stride=None, padding=0, output_size=None)
计算的MaxPool3d
偏逆.
详情见 MaxUnpool3d
.
lp_pool1d
torch.nn.functional.lp_pool1d(input, norm_type, kernel_size, stride=None, ceil_mode=False)
在由多个输入平面组成的输入信号上应用一维幂平均池化. 如果所有输入的p次方的和为零, 梯度也为零.
详情见 LPPool1d
.
lp_pool2d
torch.nn.functional.lp_pool2d(input, norm_type, kernel_size, stride=None, ceil_mode=False)
在由多个输入平面组成的输入信号上应用二维幂平均池化. 如果所有输入的p次方的和为零, 梯度也为零.
详情见 LPPool2d
.
adaptive_max_pool1d
torch.nn.functional.adaptive_max_pool1d(*args, **kwargs)
在由多个输入平面组成的输入信号上应用一维自适应最大池化.
请参见 AdaptiveMaxPool1d
和输出形状.
参数:
* output_size – 目标输出的大小(单个整数)
* return_indices – 是否返回池化索引. 默认值: False
adaptive_max_pool2d
torch.nn.functional.adaptive_max_pool2d(*args, **kwargs)
在由多个输入平面组成的输入信号上应用二维自适应最大池.
请参见 AdaptiveMaxPool2d
和输出形状.
参数:
* output_size – 目标输出的大小(单个整数 或者 双整数元组)
* return_indices – 是否返回池化索引. 默认值: False
adaptive_max_pool3d
torch.nn.functional.adaptive_max_pool3d(*args, **kwargs)
在由多个输入平面组成的输入信号上应用三维自适应最大池.
请参见 AdaptiveMaxPool3d
和输出形状.
参数:
* output_size – 目标输出的大小(单个整数 或者 三整数元组)
* return_indices – 是否返回池化索引. 默认值: False
adaptive_avg_pool1d
torch.nn.functional.adaptive_avg_pool1d(input, output_size) → Tensor
在由多个输入平面组成的输入信号上应用一维自适应平均池化.
请参见 AdaptiveAvgPool1d
了解详情和输出的形状.
参数: * output_size – 输出目标大小(单个整数)
adaptive_avg_pool2d
torch.nn.functional.adaptive_avg_pool2d(input, output_size)
在由多个输入平面组成的输入信号上应用二维自适应平均池化.
请参见 AdaptiveAvgPool2d
了解详情和输出的形状.
参数: * output_size – 输出目标大小(单个整数 或者 双整数元组)
adaptive_avg_pool3d
torch.nn.functional.adaptive_avg_pool3d(input, output_size)
在由多个输入平面组成的输入信号上应用三维自适应平均池化.
请参见 AdaptiveAvgPool3d
了解详情和输出的形状.
参数: * output_size – 输出目标大小(单个整数 或者 三整数元组)
非线性激活函数
threshold
torch.nn.functional.threshold(input, threshold, value, inplace=False)
为输入元素的每个元素设置阈值.
请参见 Threshold
.
torch.nn.functional.threshold_(input, threshold, value) → Tensor
就地版的 threshold()
.
relu
torch.nn.functional.relu(input, inplace=False) → Tensor
逐元素应用整流线性单元函数. 请参见 ReLU
.
torch.nn.functional.relu_(input) → Tensor
就地版的 relu()
.
hardtanh
torch.nn.functional.hardtanh(input, min_val=-1., max_val=1., inplace=False) → Tensor
逐元素应用hardtanh函数. 请参见 Hardtanh
.
torch.nn.functional.hardtanh_(input, min_val=-1., max_val=1.) → Tensor
原地版的 hardtanh()
.
relu6
torch.nn.functional.relu6(input, inplace=False) → Tensor
逐元素应用函数 .
请参见 ReLU6
.
elu
torch.nn.functional.elu(input, alpha=1.0, inplace=False)
逐元素应用 .
请参见 ELU
.
torch.nn.functional.elu_(input, alpha=1.) → Tensor
就地版的 elu()
.
selu
torch.nn.functional.selu(input, inplace=False) → Tensor
逐元素应用 , 其中 并且 .
请参见 SELU
.
celu
torch.nn.functional.celu(input, alpha=1., inplace=False) → Tensor
逐元素应用 .
请参见 CELU
.
leaky_relu
torch.nn.functional.leaky_relu(input, negative_slope=0.01, inplace=False) → Tensor
逐元素应用
请参见 LeakyReLU
.
torch.nn.functional.leaky_relu_(input, negative_slope=0.01) → Tensor
就地版的 leaky_relu()
.
prelu
torch.nn.functional.prelu(input, weight) → Tensor
逐元素应用函数 其中,权重是可学习的参数.
请参见 PReLU
.
rrelu
torch.nn.functional.rrelu(input, lower=1./8, upper=1./3, training=False, inplace=False) → Tensor
随机的 leaky ReLU.
请参见 RReLU
.
torch.nn.functional.rrelu_(input, lower=1./8, upper=1./3, training=False) → Tensor
就地版的 rrelu()
.
glu
torch.nn.functional.glu(input, dim=-1) → Tensor
门控线性单元. 计算:
其中inpuy
沿dim
分成两半, 形成A
和B
.
见 Language Modeling with Gated Convolutional Networks.
参数: * input (Tensor) – 输入张量 * dim (int) – 用于分割输入的维度
logsigmoid
torch.nn.functional.logsigmoid(input) → Tensor
逐元素应用
请参见 LogSigmoid
.
hardshrink
torch.nn.functional.hardshrink(input, lambd=0.5) → Tensor
逐元素应用hardshrink函数
请参见 Hardshrink
.
tanhshrink
torch.nn.functional.tanhshrink(input) → Tensor
逐元素应用,
请参见 Tanhshrink
.
softsign
torch.nn.functional.softsign(input) → Tensor
逐元素应用, the function
请参见 Softsign
.
softplus
torch.nn.functional.softplus(input, beta=1, threshold=20) → Tensor
softmin
torch.nn.functional.softmin(input, dim=None, _stacklevel=3, dtype=None)
应用 softmin 函数.
注意 . 数学公式见softmax定义
请参见 Softmin
.
参数:
* input (Tensor) – 输入
* dim (int) – 计算softmin的维度(因此dim上每个切片的和为1).
* dtype (torch.dtype
, 可选的) – 返回tenosr的期望数据类型.
如果指定了参数, 输入张量在执行::param操作之前被转换为dtype
. 这对于防止数据类型溢出非常有用. 默认值: None.
softmax
torch.nn.functional.softmax(input, dim=None, _stacklevel=3, dtype=None)
应用 softmax 函数.
Softmax定义为:
它应用于dim上的所有切片, 并将对它们进行重新缩放, 使元素位于(0,1)
范围内, 和为1.
请参见 Softmax
.
参数:
* input (Tensor) – 输入
* dim (int) – 将计算softmax的维度.
* dtype (torch.dtype
, 可选的) – 返回tenosr的期望数据类型.
:如果指定了参数, 输入张量在执行::param操作之前被转换为dtype
. 这对于防止数据类型溢出非常有用. 默认值: None.
注意
这个函数不能直接处理NLLLoss, NLLLoss要求日志在Softmax和它自己之间计算. 使用log_softmax来代替(它更快,并且具有更好的数值属性).
softshrink
torch.nn.functional.softshrink(input, lambd=0.5) → Tensor
逐元素应用 soft shrinkage 函数
请参见 Softshrink
.
gumbel_softmax
torch.nn.functional.gumbel_softmax(logits, tau=1.0, hard=False, eps=1e-10)
采样自Gumbel-Softmax分布, 并可选择离散化.
参数:
* logits – [batch_size, num_features]
非规范化对数概率
* tau – 非负的对抗强度
* hard – 如果 True
, 返回的样本将会离散为 one-hot 向量, 但将会是可微分的,就像是在自动求导的soft样本一样
返回值:
* 从 Gumbel-Softmax 分布采样的 tensor, 形状为 batch_size x num_features
. 如果 hard=True
, 返回值是 one-hot 编码, 否则, 它们就是特征和为1的概率分布
约束:
* 目前仅支持二维的 logits
输入张量, 形状为 batch_size x num_features
基于 https://github.com/ericjang/gumbel-softmax/blob/3c8584924603869e90ca74ac20a6a03d99a91ef9/Categorical%20VAE.ipynb , (MIT license)
log_softmax
torch.nn.functional.log_softmax(input, dim=None, _stacklevel=3, dtype=None)
应用 softmax 和对数运算.
虽然在数学上等价于log(softmax(x)), 但分开执行这两个操作比较慢, 而且在数值上不稳定. 这个函数使用另一种公式来正确计算输出和梯度.
请参见 LogSoftmax
.
参数:
* input (Tensor) – 输入
* dim (int) – 计算log_softmax的维度.
* dtype (torch.dtype
, 可选的) – 返回张量的期望数据类型.
:如果指定了参数, 输入张量在执行::param操作之前被转换为dtype
. 这对于防止数据类型溢出非常有用. 默认值: None.
tanh
torch.nn.functional.tanh(input) → Tensor
逐元素应用
请参见 Tanh
.
sigmoid
torch.nn.functional.sigmoid(input) → Tensor
逐元素应用函数
请参见 Sigmoid
.
规范化函数
batch_norm
torch.nn.functional.batch_norm(input, running_mean, running_var, weight=None, bias=None, training=False, momentum=0.1, eps=1e-05)
对一批数据中的每个通道应用批量标准化.
请参见 BatchNorm1d
, BatchNorm2d
, BatchNorm3d
.
instance_norm
torch.nn.functional.instance_norm(input, running_mean=None, running_var=None, weight=None, bias=None, use_input_stats=True, momentum=0.1, eps=1e-05)
对批中每个数据样本中的每个通道应用实例规范化.
请参见 InstanceNorm1d
, InstanceNorm2d
, InstanceNorm3d
.
layer_norm
torch.nn.functional.layer_norm(input, normalized_shape, weight=None, bias=None, eps=1e-05)
对最后特定数量的维度应用layer规范化.
请参见 LayerNorm
.
local_response_norm
torch.nn.functional.local_response_norm(input, size, alpha=0.0001, beta=0.75, k=1.0)
对由多个输入平面组成的输入信号进行局部响应归一化, 其中通道占据第二维. 跨通道应用标准化.
请参见 LocalResponseNorm
.
normalize
torch.nn.functional.normalize(input, p=2, dim=1, eps=1e-12, out=None)
对指定维度执行 规范化.
对于一个尺寸为 的输入张量, 每一 -元素向量 沿着维度 dim
被转换为
对于默认参数, 它使用沿维度的欧几里得范数进行标准化.
参数:
* input – 任意形状的输入张量
* p (float) – 范数公式中的指数值. 默认值: 2
* dim (int) – 进行规约的维度. 默认值: 1
* eps (float) – 避免除以零的小值. 默认值: 1e-12
* out (Tensor, 可选的) – 输出张量. 如果 out
被设置, 此操作不可微分.
线性函数
linear
torch.nn.functional.linear(input, weight, bias=None)
对传入数据应用线性转换: .
形状:
- Input:
*
表示任意数量的附加维度- Weight:
- Bias:
- Output:
bilinear
torch.nn.functional.bilinear(input1, input2, weight, bias=None)
Dropout 函数
dropout
torch.nn.functional.dropout(input, p=0.5, training=True, inplace=False)
在训练过程中, 使用伯努利分布的样本, 随机地用概率p
将输入张量的一些元素归零.
请参见 Dropout
.
参数:
* p – 清零概率. 默认值: 0.5
* training – 如果 True
使用 dropout. 默认值: True
* inplace – 如果设置为 True
, 将会原地操作. 默认值: False
alpha_dropout
torch.nn.functional.alpha_dropout(input, p=0.5, training=False, inplace=False)
对输入应用 alpha dropout.
请参见 AlphaDropout
.
dropout2d
torch.nn.functional.dropout2d(input, p=0.5, training=True, inplace=False)
随机归零输入张量的整个通道 (一个通道是一个二维特征图, 例如, 在批量输入中第j个通道的第i个样本是一个二维张量的输入[i,j]). 每次前向传递时, 每个信道都将被独立清零. 用概率 p
从 Bernoulli 分布采样.
请参见 Dropout2d
.
参数:
* p – 通道清零的概率. 默认值: 0.5
* training – 使用 dropout 如果设为 True
. 默认值: True
* inplace – 如果设置为 True
, 将会做原地操作. 默认值: False
dropout3d
torch.nn.functional.dropout3d(input, p=0.5, training=True, inplace=False)
随机归零输入张量的整个通道 (一个通道是一个三维特征图, 例如, 在批量输入中第j个通道的第i个样本是一个三维张量的输入[i,j]). 每次前向传递时, 每个信道都将被独立清零. 用概率 p
从 Bernoulli 分布采样.
请参见 Dropout3d
.
参数:
* p – 通道清零的概率. 默认值: 0.5
* training – 使用 dropout 如果设为 True
. 默认值: True
* inplace – 如果设置为 True
, 将会做原地操作. 默认值: False
稀疏函数
embedding
torch.nn.functional.embedding(input, weight, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False)
一个简单的查找表, 查找固定字典中的embedding(嵌入)内容和大小.
这个模块通常用于使用索引检索单词嵌入. 模块的输入是索引列表和嵌入矩阵, 输出是相应的单词嵌入.
请参见 torch.nn.Embedding
.
参数:
* input (LongTensor) – 包含嵌入矩阵中的索引的张量
* weight (Tensor) – 嵌入矩阵的行数等于可能的最大索引数+ 1, 列数等于嵌入大小
* padding_idx (int, 可选的) – 如果给定, 每当遇到索引时, 在padding_idx
(初始化为零)用嵌入向量填充输出.
* max_norm (float, 可选的) – 如果给定, 则将范数大于max_norm
的每个嵌入向量重新规范化, 得到范数max_norm
. 注意:这将修改适当的weight
.
* norm_type (float, 可选的) – 用于计算max_norm
选项的p范数的p. 默认 2
.
* scale_grad_by_freq (boolean__, 可选的) – 如果给定, 这将通过小批处理中单词频率的倒数来缩放梯度. 默认 False
.
* sparse (bool, 可选的) – 如果值为 True
, 梯度 w.r.t. weight
将会是一个稀疏 tensor. 请看 torch.nn.Embedding
有关稀疏梯度的更多详细信息.
形状:
- Input: 包含要提取的索引的任意形状的长张量
- Weight: 浮点型嵌入矩阵, 形状为 (V, embedding_dim), V = maximum index + 1 并且 embedding_dim = the embedding size
- Output:
(*, embedding_dim)
,*
是输入形状
例子:
>>> # a batch of 2 samples of 4 indices each
>>> input = torch.tensor([[1,2,4,5],[4,3,2,9]])
>>> # an embedding matrix containing 10 tensors of size 3
>>> embedding_matrix = torch.rand(10, 3)
>>> F.embedding(input, embedding_matrix)
tensor([[[ 0.8490, 0.9625, 0.6753],
[ 0.9666, 0.7761, 0.6108],
[ 0.6246, 0.9751, 0.3618],
[ 0.4161, 0.2419, 0.7383]],
[[ 0.6246, 0.9751, 0.3618],
[ 0.0237, 0.7794, 0.0528],
[ 0.9666, 0.7761, 0.6108],
[ 0.3385, 0.8612, 0.1867]]])
>>> # example with padding_idx
>>> weights = torch.rand(10, 3)
>>> weights[0, :].zero_()
>>> embedding_matrix = weights
>>> input = torch.tensor([[0,2,0,5]])
>>> F.embedding(input, embedding_matrix, padding_idx=0)
tensor([[[ 0.0000, 0.0000, 0.0000],
[ 0.5609, 0.5384, 0.8720],
[ 0.0000, 0.0000, 0.0000],
[ 0.6262, 0.2438, 0.7471]]])
embedding_bag
torch.nn.functional.embedding_bag(input, weight, offsets=None, max_norm=None, norm_type=2, scale_grad_by_freq=False, mode='mean', sparse=False)
计算嵌入bags
的和、平均值或最大值, 而不实例化中间嵌入.
参数:
- input (LongTensor) – 包含嵌入矩阵的索引的
bags
张量 - weight (Tensor) – 嵌入矩阵的行数等于可能的最大索引数+ 1, 列数等于嵌入大小
- offsets (LongTensor__, 可选的) – 仅当
input
为一维时使用.offsets
确定输入中每个bag
(序列)的起始索引位置 - max_norm (float, 可选的) – 如果给定此参数, 范数大于
max_norm
的每个嵌入向量将被重新规格化为范数max_norm
. 注意:这将就地修改weight
- norm_type (float, 可选的) – The
p
in thep
-norm to compute for themax_norm
option. 默认2
. - scale_grad_by_freq (boolean__, 可选的) – 如果给定此参数, 这将通过小批处理中单词频率的倒数来缩放梯度. 默认值 False. 注意:当
mode="max"
时不支持此选项. - mode (string__, 可选的) –
"sum"
,"mean"
or"max"
. 指定减少bag
的方法. 默认值:"mean"
- sparse (bool, 可选的) – 如果
True
, 梯度w.r.t.权值就是一个稀疏张量.请参见torch.nn.Embedding
关于稀疏梯度. 注意: 此选项不支持mode="max"
.
形状:
input
(LongTensor) 和offsets
(LongTensor, 可选的)
- 如果
input
是二维的, 形状为B x N
,
它将被视为每个固定长度N
的B
个bag(序列), 这将根据模式以某种方式返回B
个聚合值. 在本例中,offsets
被忽略, 并且要求为None
- 如果
input
是一维的, 形状为N
它将被视为多个bag
(序列)的串联.offsets
必须是一个一维tensor, 其中包含input
中每个bag
的起始索引位置. 因此, 对于形状B
的偏移量, 输入将被视为有B
个bag. 空bags( 即, 具有0长度)将返回由0填充的向量weight
(Tensor): 模块的可学习权重, 形状(num_embeddings x embedding_dim)
output
: 聚合的嵌入值, 形状B x embedding_dim
例子:
>>> # an Embedding module containing 10 tensors of size 3
>>> embedding_matrix = torch.rand(10, 3)
>>> # a batch of 2 samples of 4 indices each
>>> input = torch.tensor([1,2,4,5,4,3,2,9])
>>> offsets = torch.tensor([0,4])
>>> F.embedding_bag(embedding_matrix, input, offsets)
tensor([[ 0.3397, 0.3552, 0.5545],
[ 0.5893, 0.4386, 0.5882]])
距离函数
pairwise_distance
torch.nn.functional.pairwise_distance(x1, x2, p=2.0, eps=1e-06, keepdim=False)
cosine_similarity
torch.nn.functional.cosine_similarity(x1, x2, dim=1, eps=1e-8) → Tensor
返回x1和x2之间的余弦相似度, 沿dim计算
参数: * x1 (Tensor) – 第一个输入. * x2 (Tensor) – 第二个输入(大小和 x1 匹配). * dim (int, 可选的) – 维度. 默认值: 1 * eps (float, 可选的) – 非常小的值避免除以0. 默认值: 1e-8
形状:
* Input: 其中D在dim
位置.
* Output: 其中1在dim
位置.
例子:
>>> input1 = torch.randn(100, 128)
>>> input2 = torch.randn(100, 128)
>>> output = F.cosine_similarity(input1, input2)
>>> print(output)
pdist
torch.nn.functional.pdist(input, p=2) → Tensor
计算输入中每对行向量之间的p范数距离. 这与torch.norm(input[:, None] - input, dim=2, p=p)
的上三角形部分(不包括对角线)相同. 如果行是连续的, 则此函数将更快
如果输入具有形状 则输出将具有形状 .
这个函数相当于 scipy.spatial.distance.pdist(input, 'minkowski', p=p)
如果 . 当 它等价于 scipy.spatial.distance.pdist(input, 'hamming') * M
. 当 , 最相近的scipy函数是 scipy.spatial.distance.pdist(xn, lambda x, y: np.abs(x - y).max())
.
参数:
- input – 输入张量, 形状为 .
- p – 计算每个向量对之间的p范数距离的p值 .
损失函数
binary_cross_entropy
torch.nn.functional.binary_cross_entropy(input, target, weight=None, size_average=None, reduce=None, reduction='mean')
计算目标和输出之间二进制交叉熵的函数.
请参见 BCELoss
.
参数:
* input – 任意形状的张量
* target – 与输入形状相同的张量
* weight (Tensor, 可选的) – 手动重新调整权重, 如果提供, 它重复来匹配输入张量的形状
* size_average (bool, 可选的) – 废弃的 (见 reduction
). 默认情况下, 批处理中的每个损失元素的平均损失. 注意, 对于某些损失, 每个样本有多个元素. 如果size_average
设置为False
, 则对每个小批的损失进行汇总. reduce为False时忽略. 默认值: True
* reduce (bool, 可选的) – 废弃的 (见 reduction
). 默认情况下, 根据size_average, 对每个小批量的观察结果的损失进行平均或求和. 当reduce为False时, 返回每批元素的损失并忽略size_average
. 默认值: True
* reduction (string__, 可选的) – 指定要应用于输出的reduction
:'none'| 'mean'| 'sum'. 'none':没有reduction, 'mean':输出的总和将除以输出中的元素数量 'sum':输出将被求和. 注意:size_average
和reduce
正在被弃用, 同时, 指定这两个args中的任何一个都将覆盖reduce. 默认值:'mean', 默认值: 'mean'
例子:
>>> input = torch.randn((3, 2), requires_grad=True)
>>> target = torch.rand((3, 2), requires_grad=False)
>>> loss = F.binary_cross_entropy(F.sigmoid(input), target)
>>> loss.backward()
binary_cross_entropy_with_logits
torch.nn.functional.binary_cross_entropy_with_logits(input, target, weight=None, size_average=None, reduce=None, reduction='mean', pos_weight=None)
计算目标和输出logits之间的二进制交叉熵的函数.
请参见 BCEWithLogitsLoss
.
参数:
* input – 任意形状的张量
* target – 与输入形状相同的张量
* weight (Tensor, 可选的) – 手动重新调整权重, 如果提供, 它重复来匹配输入张量的形状
* size_average (bool, 可选的) – 废弃的 (见 reduction
). 默认情况下, 批处理中的每个损失元素的平均损失. 注意, 对于某些损失, 每个样本有多个元素. 如果size_average
设置为False
, 则对每个小批的损失进行汇总. reduce为False时忽略. 默认值: True
* reduce (bool, 可选的) – 废弃的 (见 reduction
). 默认情况下, 根据size_average, 对每个小批量的观察结果的损失进行平均或求和. 当reduce为False时, 返回每批元素的损失并忽略size_average
. 默认值: True
* reduction (string__, 可选的) – 指定要应用于输出的reduction
:'none'| 'mean'| 'sum'. 'none':没有reduction, 'mean':输出的总和将除以输出中的元素数量 'sum':输出将被求和. 注意:size_average
和reduce
正在被弃用, 同时, 指定这两个args中的任何一个都将覆盖reduce. 默认值:'mean', 默认值: 'mean'
* pos_weight (Tensor, 可选的) – 正例样本的权重. 必须是长度等于类数的向量.
例子:
>>> input = torch.randn(3, requires_grad=True)
>>> target = torch.empty(3).random_(2)
>>> loss = F.binary_cross_entropy_with_logits(input, target)
>>> loss.backward()
poisson_nll_loss
torch.nn.functional.poisson_nll_loss(input, target, log_input=True, full=False, size_average=None, eps=1e-08, reduce=None, reduction='mean')
泊松负对数似然损失.
请参见 PoissonNLLLoss
.
参数:
* input – 潜在泊松分布的期望.
* target – 随机抽样 .
* log_input – 如果为True
, 则损失计算为 , 如果为False
, 则损失计算为 . 默认值: True
* full – 是否计算全部损失, 即. 加入Stirling近似项. 默认值: False
.
* size_average (bool, 可选的) – 废弃的 (见 reduction
). 默认情况下, 批处理中的每个损失元素的平均损失. 注意, 对于某些损失, 每个样本有多个元素. 如果size_average
设置为False
, 则对每个小批的损失进行汇总. reduce为False时忽略. 默认值: True
* eps (float, 可选的) – 一个小值避免求值 当 log_input
=False
. 默认值: 1e-8
* reduce (bool, 可选的) – 废弃的 (见 reduction
). 默认情况下, 根据size_average, 对每个小批量的观察结果的损失进行平均或求和. 当reduce为False时, 返回每批元素的损失并忽略size_average
. 默认值: True
* reduction (string__, 可选的) – 指定要应用于输出的reduction
:'none'| 'mean'| 'sum'. 'none':没有reduction, 'mean':输出的总和将除以输出中的元素数量 'sum':输出将被求和. 注意:size_average
和reduce
正在被弃用, 同时, 指定这两个args中的任何一个都将覆盖reduce. 默认值:'mean', 默认值: 'mean'
cosine_embedding_loss
torch.nn.functional.cosine_embedding_loss(input1, input2, target, margin=0, size_average=None, reduce=None, reduction='mean') → Tensor
请参见 CosineEmbeddingLoss
.
cross_entropy
torch.nn.functional.cross_entropy(input, target, weight=None, size_average=None, ignore_index=-100, reduce=None, reduction='mean')
此函数结合了 log_softmax
和 nll_loss
.
请参见 CrossEntropyLoss
.
参数:
- input (Tensor) – 其中
C = 类别数
或者在二维损失的情况下为 , 或者 当 在k维损失的情况下 - target (Tensor) – 其中每个值都在 范围内, 或者 其中 在k维损失情况下.
- weight (Tensor, 可选的) – 给每个类别的手动重定权重. 如果给定, 必须是大小为
C
的张量 - size_average (bool, 可选的) – 废弃的 (见
reduction
). 默认情况下, 批处理中的每个损失元素的平均损失. 注意, 对于某些损失, 每个样本有多个元素. 如果size_average
设置为False
, 则对每个小批的损失进行汇总. reduce为False时忽略. 默认值:True
- ignore_index (int, 可选的) – 指定一个被忽略的目标值,该目标值不影响输入梯度。当
size_average
取值为True
, 损失平均在不可忽略的目标上. 默认值: -100 - reduce (bool, 可选的) – 废弃的 (见
reduction
). 默认情况下, 根据size_average, 对每个小批量的观察结果的损失进行平均或求和. 当reduce为False时, 返回每批元素的损失并忽略size_average
. 默认值:True
- reduction (string__, 可选的) – 指定要应用于输出的
reduction
:'none'| 'mean'| 'sum'. 'none':没有reduction, 'mean':输出的总和将除以输出中的元素数量 'sum':输出将被求和. 注意:size_average
和reduce
正在被弃用, 同时, 指定这两个args中的任何一个都将覆盖reduce. 默认值:'mean', 默认值: 'mean'
例子:
>>> input = torch.randn(3, 5, requires_grad=True)
>>> target = torch.randint(5, (3,), dtype=torch.int64)
>>> loss = F.cross_entropy(input, target)
>>> loss.backward()
ctc_loss
torch.nn.functional.ctc_loss(log_probs, targets, input_lengths, target_lengths, blank=0, reduction='mean')
联结主义时间分类损失.
请参见 CTCLoss
.
注意
在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True
来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 Reproducibility 了解背景.
注意
当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于Reproducibility的注释.
参数:
- log_probs – 其中
C = 字母表中包括空格在内的字符数
,T = 输入长度
, andN = 批次数量
. 输出的对数概率(e.g. 获得于torch.nn.functional.log_softmax()
). - targets – or
(sum(target_lengths))
. 目标(不能为空). 在第二种形式中,假定目标是串联的。 - input_lengths – . 输入的长度 (必须 )
- target_lengths – . 目标的长度
- blank (int, 可选的) – 空白的标签. 默认 .
- reduction (string__, 可选的) - 指定要应用于输出的
reduction
:'none'| 'mean'| 'sum'. 'none':不会应用reduce
, 'mean':输出损失将除以目标长度, 然后得到批次的平均值. 默认值:'mean'
例子:
>>> log_probs = torch.randn(50, 16, 20).log_softmax(2).detach().requires_grad_()
>>> targets = torch.randint(1, 20, (16, 30), dtype=torch.long)
>>> input_lengths = torch.full((16,), 50, dtype=torch.long)
>>> target_lengths = torch.randint(10,30,(16,), dtype=torch.long)
>>> loss = F.ctc_loss(log_probs, targets, input_lengths, target_lengths)
>>> loss.backward()
hinge_embedding_loss
torch.nn.functional.hinge_embedding_loss(input, target, margin=1.0, size_average=None, reduce=None, reduction='mean') → Tensor
请参见 HingeEmbeddingLoss
.
kl_div
torch.nn.functional.kl_div(input, target, size_average=None, reduce=None, reduction='mean')
Kullback-Leibler divergence 损失.
请参见 KLDivLoss
参数:
- input – 任意形状的张量
- target – 和输入形状相同的张量
- size_average (bool, 可选的) – 废弃的 (见
reduction
). 默认情况下, 批处理中的每个损失元素的平均损失. 注意, 对于某些损失, 每个样本有多个元素. 如果size_average
设置为False
, 则对每个小批的损失进行汇总. reduce为False时忽略. 默认值:True
- reduce (bool, 可选的) – 废弃的 (见
reduction
). 默认情况下, 根据size_average, 对每个小批量的观察结果的损失进行平均或求和. 当reduce为False时, 返回每批元素的损失并忽略size_average
. 默认值:True
- reduction (string__, 可选的) – 指定要应用于输出的缩减:'none'| 'batchmean'| 'sum'| 'mean'. 'none':不会应用
reduction
'batchmean':输出的总和将除以batchsize 'sum':输出将被加总 'mean':输出将除以输出中的元素数 默认值:'mean'
:param 注::size average
和reduce
正在被弃用, 同时, 指定这两个arg中的一个将覆盖reduce.
:param 注::reduce = mean
不返回真实的kl散度值, 请使用:reduce = batchmean
, 它符合kl的数学定义.
在下一个主要版本中, “mean”将被修改为与“batchmean”相同.
l1_loss
torch.nn.functional.l1_loss(input, target, size_average=None, reduce=None, reduction='mean') → Tensor
该函数取元素的绝对值差的平均值。
请参见 L1Loss
.
mse_loss
torch.nn.functional.mse_loss(input, target, size_average=None, reduce=None, reduction='mean') → Tensor
计算元素的均方误差.
请参见 MSELoss
.
margin_ranking_loss
torch.nn.functional.margin_ranking_loss(input1, input2, target, margin=0, size_average=None, reduce=None, reduction='mean') → Tensor
请参见 MarginRankingLoss
.
multilabel_margin_loss
torch.nn.functional.multilabel_margin_loss(input, target, size_average=None, reduce=None, reduction='mean') → Tensor
请参见 MultiLabelMarginLoss
.
multilabel_soft_margin_loss
torch.nn.functional.multilabel_soft_margin_loss(input, target, weight=None, size_average=None) → Tensor
multi_margin_loss
torch.nn.functional.multi_margin_loss(input, target, p=1, margin=1.0, weight=None, size_average=None, reduce=None, reduction='mean')
multi_margin_loss(input, target, p=1, margin=1, weight=None, size_average=None, reduce=None, reduction='mean') -> Tensor
请参见 MultiMarginLoss
.
nll_loss
torch.nn.functional.nll_loss(input, target, weight=None, size_average=None, ignore_index=-100, reduce=None, reduction='mean')
负的对数似然函数.
请参见 NLLLoss
.
参数:
- input –
C = 类别的数量
或者 在二维损失的情况下, 或者 在K维损失的情况下. - target – 每个值是 , 或者 K维损失.
- weight (Tensor, 可选的) – 给每个类别的手动重定权重. 如果给定, 必须是大小为
C
的张量 - size_average (bool, 可选的) – 废弃的 (见
reduction
). 默认情况下, 批处理中的每个损失元素的平均损失. 注意, 对于某些损失, 每个样本有多个元素. 如果size_average
设置为False
, 则对每个小批的损失进行汇总. reduce为False时忽略. 默认值:True
- ignore_index (int, 可选的) – 指定一个被忽略的目标值, 该值不会影响输入梯度. 当
size_average
为True
时, 损耗在未忽略的目标上平均. 默认值: -100 - reduce (bool, 可选的) – 废弃的 (见
reduction
). 默认情况下, 根据size_average, 对每个小批量的观察结果的损失进行平均或求和. 当reduce为False时, 返回每批元素的损失并忽略size_average
. 默认值:True
- reduction (string__, 可选的) – 指定要应用于输出的
reduction
:'none'| 'mean'| 'sum'. 'none':没有reduction, 'mean':输出的总和将除以输出中的元素数量 'sum':输出将被求和. 注意:size_average
和reduce
正在被弃用, 同时, 指定这两个args中的任何一个都将覆盖reduce. 默认值:'mean', 默认值: 'mean'
例子:
>>> # input is of size N x C = 3 x 5
>>> input = torch.randn(3, 5, requires_grad=True)
>>> # each element in target has to have 0 <= value < C
>>> target = torch.tensor([1, 0, 4])
>>> output = F.nll_loss(F.log_softmax(input), target)
>>> output.backward()
smooth_l1_loss
torch.nn.functional.smooth_l1_loss(input, target, size_average=None, reduce=None, reduction='mean')
如果绝对元素误差低于1, 则使用平方项, 否则使用L1项的函数.
请参见 SmoothL1Loss
.
soft_margin_loss
torch.nn.functional.soft_margin_loss(input, target, size_average=None, reduce=None, reduction='mean') → Tensor
请参见 SoftMarginLoss
.
triplet_margin_loss
torch.nn.functional.triplet_margin_loss(anchor, positive, negative, margin=1.0, p=2, eps=1e-06, swap=False, size_average=None, reduce=None, reduction='mean')
视觉函数
pixel_shuffle
torch.nn.functional.pixel_shuffle()
重新排列张量中的元素, 从形状 到 .
请参见 PixelShuffle
.
参数: * input (Tensor) – 输入张量 * upscale_factor (int) – 提高空间解析度的参数
例子:
>>> input = torch.randn(1, 9, 4, 4)
>>> output = torch.nn.functional.pixel_shuffle(input, 3)
>>> print(output.size())
torch.Size([1, 1, 12, 12])
pad
torch.nn.functional.pad(input, pad, mode='constant', value=0)
用于填充张量.
Pading size:
要填充的维度数为 填充的维度从最后一个维度开始向前移动. 例如, 填充输入tensor的最后一个维度, 所以 pad 形如 (padLeft, padRight); 填充最后 2 个维度, 使用 (padLeft, padRight, padTop, padBottom); 填充最后 3 个维度, 使用 (padLeft, padRight, padTop, padBottom, padFront, padBack).
Padding mode:
请参见 torch.nn.ConstantPad2d
, torch.nn.ReflectionPad2d
, and torch.nn.ReplicationPad2d
有关每个填充模式如何工作的具体示例. Constant padding 已经实现于任意维度. 复制填充用于填充5D输入张量的最后3个维度, 或4D输入张量的最后2个维度, 或3D输入张量的最后一个维度. 反射填充仅用于填充4D输入张量的最后两个维度, 或者3D输入张量的最后一个维度.
注意
当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于Reproducibility的注释.
参数: * input (Tensor) – N维张量 * pad (tuple) – m个元素的元组, 其中 输入维数,且m是偶数 * mode – 'constant', 'reflect' or 'replicate'. 默认值: 'constant' * value – 用“常量”填充来填充值. 默认值: 0
例子:
>>> t4d = torch.empty(3, 3, 4, 2)
>>> p1d = (1, 1) # pad last dim by 1 on each side
>>> out = F.pad(t4d, p1d, "constant", 0) # effectively zero padding
>>> print(out.data.size())
torch.Size([3, 3, 4, 4])
>>> p2d = (1, 1, 2, 2) # pad last dim by (1, 1) and 2nd to last by (2, 2)
>>> out = F.pad(t4d, p2d, "constant", 0)
>>> print(out.data.size())
torch.Size([3, 3, 8, 4])
>>> t4d = torch.empty(3, 3, 4, 2)
>>> p3d = (0, 1, 2, 1, 3, 3) # pad by (0, 1), (2, 1), and (3, 3)
>>> out = F.pad(t4d, p3d, "constant", 0)
>>> print(out.data.size())
torch.Size([3, 9, 7, 3])
interpolate
torch.nn.functional.interpolate(input, size=None, scale_factor=None, mode='nearest', align_corners=None)
向下/向上采样输入到给定的size
或给定的scale_factor
由 mode
指定插值的算法.
目前支持时间, 空间和体积上采样, 即预期输入为三维、四维或五维形状.
输入维度形式: mini-batch x channels x [可选的 depth] x [可选的 height] x width
.
可用于上采样的模式是: nearest
, linear
(仅三维), bilinear
(仅四维), trilinear
(仅五维), area
参数:
* input (Tensor) – 输入张量
* size (int or Tuple__[int] or Tuple__[int, int] or Tuple__[int, int, int]) – 输出尺寸.
* scale_factor (float or Tuple__[float]) – 空间大小的乘数. 如果是元组, 则必须匹配输入大小.
* mode (string) – 上采样算法: 'nearest' | 'linear' | 'bilinear' | 'trilinear' | 'area'. 默认值: 'nearest'
* align_corners (bool, 可选的) – 如果为True, 则输入和输出张量的角像素对齐, 从而保留这些像素的值. 仅在 mode
是 linear
, bilinear
, 或者 trilinear
时生效. 默认值: False
警告
align_corners = True
时, 线性插值模式(linear
, bilinear
, and trilinear
)不会按比例对齐输出和输入像素, 因此输出值可能取决于输入大小. 这是0.3.1版之前这些模式的默认行为.此后, 默认行为为align_corners = False
. 有关这如何影响输出的具体示例, 请参见上例.
注意
当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于Reproducibility的注释.
upsample
torch.nn.functional.upsample(input, size=None, scale_factor=None, mode='nearest', align_corners=None)
将输入采样到给定size
或给定的scale_factor
警告
此函数已被弃用, 取而代之的是 torch.nn.functional.interpolate()
. 等价于 nn.functional.interpolate(...)
.
注意
当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于Reproducibility的注释.
用于上采样的算法由 mode
确定.
目前支持时间, 空间和体积上采样, 即预期输入为三维、四维或五维形状.
输入维度形式: mini-batch x channels x [可选的 depth] x [可选的 height] x width
.
可用于上采样的模式是: nearest
, linear
(仅三维), bilinear
(仅四维), trilinear
(仅五维), area
参数:
* input (Tensor) – 输入张量
* size (int or Tuple__[int] or Tuple__[int, int] or Tuple__[int, int, int]) – 输出尺寸.
* scale_factor (int) – 空间大小的乘数. 必须是整数.
* mode (string) – 上采样算法: 'nearest' | 'linear'| 'bilinear' | 'trilinear'. 默认值: 'nearest'
* align_corners (bool, 可选的) – 如果为True, 则输入和输出张量的角像素对齐, 从而保留这些像素的值. 仅在 mode
是 linear
, bilinear
, 或者 trilinear
时生效. 默认值: False
警告
align_corners = True
时, 线性插值模式(linear
, bilinear
, and trilinear
)不会按比例对齐输出和输入像素, 因此输出值可能取决于输入大小. 这是0.3.1版之前这些模式的默认行为.此后, 默认行为为align_corners = False
. 有关这如何影响输出的具体示例, 请参见 Upsample
upsample_nearest
torch.nn.functional.upsample_nearest(input, size=None, scale_factor=None)
使用最近邻的像素值对输入进行上采样.
警告
不推荐使用此函数, 而使用 torch.nn.functional.interpolate()
. 等价于h nn.functional.interpolate(..., mode='nearest')
.
目前支持空间和体积上采样 (即 inputs 是 4 或者 5 维的).
参数: * input (Tensor) – 输入 * size (int or Tuple__[int, int] or Tuple__[int, int, int]) – 输出空间大小. * scale_factor (int) – 空间大小乘法器。必须是整数。
注意
当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于Reproducibility的注释.
upsample_bilinear
torch.nn.functional.upsample_bilinear(input, size=None, scale_factor=None)
使用双线性上采样对输入进行上采样.
警告
不推荐使用此函数, 而使用 torch.nn.functional.interpolate()
. 等价于 nn.functional.interpolate(..., mode='bilinear', align_corners=True)
.
期望输入是空间的 (四维). 用 upsample_trilinear
对体积 (五维) 输入.
参数: * input (Tensor) – 输入 * size (int or Tuple__[int, int] or Tuple__[int, int, int]) – 输出空间大小. * scale_factor (int) – 空间大小乘法器。
注意
当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于Reproducibility的注释.
grid_sample
torch.nn.functional.grid_sample(input, grid, mode='bilinear', padding_mode='zeros')
给定input
和流场 grid
, 使用 input
和 grid
中的像素位置计算output
.
目前, 仅支持 spatial (四维) 和 volumetric (五维) input
.
在 spatial (4四维) 的情况下, 对于 input
形如 和 grid
形如 , 输出的形状为 .
对于每个输出位置 output[n, :, h, w]
, 大小为2的向量 grid[n, h, w]
指定 input
的像素位置 x
和 y
, 用于插值输出值 output[n, :, h, w]
. 对于 5D 的 inputs, grid[n, d, h, w]
指定 x
, y
, z
像素位置用于插值 output[n, :, d, h, w]
. mode
参数指定 nearest
or bilinear
插值方法.
grid
大多数值应该处于 [-1, 1]
. 这是因为像素位置由input
空间维度标准化.例如, 值 x = -1, y = -1
是 input
的左上角, 值 x = 1, y = 1
是 input
的右下角.
如果 grid
有 [-1, 1]
之外的值, 那些坐标将由 padding_mode
定义. 选项如下
padding_mode="zeros"
: 用0
代替边界外的值,padding_mode="border"
: 用 border 值代替,padding_mode="reflection"
: 对于超出边界的值, 用反射的值. 对于距离边界较远的位置, 它会一直被反射, 直到到达边界, 例如(归一化)像素位置x = -3.5
被-1
反射, 变成x' = 2.5
, 然后被边界1反射, 变成x'' = -0.5
.
注意
该功能常用于空间变换网络的构建.
注意
当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于Reproducibility的注释.
参数: * input (Tensor) – 形状为 的输入 (四维情形) 或形状为 的输入(五维情形) * grid (Tensor) – 形状为 的流场(四维情形) 或者 (五维情形) * mode (str) – 插值模式计算输出值'双线性' | '最接近'. 默认值: 'bilinear' * padding_mode (str) – 外部网格值' zeros ' | ' border ' | ' reflection '的填充模式. 默认值: 'zeros'
返回值: * 输出张量
返回类型: * 输出 (Tensor)
affine_grid
torch.nn.functional.affine_grid(theta, size)
在给定一批仿射矩阵theta
的情况下生成二维流场. 通常与grid_sample()
一起使用以实现空间变换器网络
.
参数: * theta (Tensor) – 输入的仿射矩阵 () * size (torch.Size) – 目标图像输出的大小 () 例子: torch.Size((32, 3, 24, 24))
返回值: * 输出tensor, 形状为 ()
返回类型: * output (Tensor)
数据并行函数 (multi-GPU, distributed)
data_parallel
torch.nn.parallel.data_parallel(module, inputs, device_ids=None, output_device=None, dim=0, module_kwargs=None)
在设备id中给定的gpu上并行计算模块(输入).
这是DataParallel模块的函数版本.
参数: * module (Module) – 要并行评估的模块 * inputs (tensor) – 模块的输入 * device_ids (list of python:int or torch.device) – 用于复制模块的GPU id * output_device (list of python:int or torch.device) – 输出的GPU位置使用 -1表示CPU. (默认值: device_ids[0])
返回值: * 一个张量, 包含位于输出设备上的模块(输入)的结果