目录


1 torch.cuda.amp混合精度训练

​ 混合精度训练提供了自适应的float32(单精度)与float16(半精度)数据适配,我们必须同时使用 ​​torch.autocast​​​ and ​​torch.cuda.amp.GradScaler​​​ 才能起到作用。然而,​​torch.autocast​​​和​​GradScaler​​​是模块化的,如果需要可以单独使用。混合精度的原理参考:​

2 Autocasting

2.1 torch.autocast

torch.autocast(device_type, enabled=True, **kwargs)

上下文管理器或装饰器autocast的实例,允许脚本区域以混合精度训练。在这些区域中,ops 在 autocast 选择的特定于 op 的 dtype 中运行,以在保持准确性的同时提高性能。有关详细信息,请参阅​​Autocast Op 参考​​​。​​autocast​​应该只包装网络的前向传递,包括损失计算。不推荐包含反向传播。后向操作与autocast在前向过程中操作的类型相同。

有两种形式可以实现autocast:

  • 上下文管理器
# Creates model and optimizer in default precision
model = Net().cuda()
optimizer = optim.SGD(model.parameters(), ...)

for input, target in data:
optimizer.zero_grad()

# Enables autocasting for the forward pass (model + loss)
with autocast():
output = model(input)
loss = loss_fn(output, target)

# Exits the context manager before backward()
loss.backward()
optimizer.step()
  • 装饰器
class AutocastModel(nn.Module):
...
@autocast()
def forward(self, input):
...

在autocast区域的代码会将部分张量精度转为float16,如果直接使用这些张量进行计算,可能会报错。所以离开这个区域后我们尽量将其转换回float32再进行计算!

# Creates some tensors in default dtype (here assumed to be float32)
a_float32 = torch.rand((8, 8), device="cuda")
b_float32 = torch.rand((8, 8), device="cuda")
c_float32 = torch.rand((8, 8), device="cuda")
d_float32 = torch.rand((8, 8), device="cuda")

with autocast():
# torch.mm is on autocast's list of ops that should run in float16.
# Inputs are float32, but the op runs in float16 and produces float16 output.
# No manual casts are required.
e_float16 = torch.mm(a_float32, b_float32)
# Also handles mixed input types
f_float16 = torch.mm(d_float32, e_float16)

# After exiting autocast, calls f_float16.float() to use with d_float32
g_float32 = torch.mm(d_float32, f_float16.float())

​autocast(enabled=False)​​​子区域可以嵌套在autocast的区域中。例如,如果您想强制子区域在特定的​​dtype​​. 禁用自动转换使您可以显式控制执行类型。

# Creates some tensors in default dtype (here assumed to be float32)
a_float32 = torch.rand((8, 8), device="cuda")
b_float32 = torch.rand((8, 8), device="cuda")
c_float32 = torch.rand((8, 8), device="cuda")
d_float32 = torch.rand((8, 8), device="cuda")

with autocast():
e_float16 = torch.mm(a_float32, b_float32)
with autocast(enabled=False):
# Calls e_float16.float() to ensure float32 execution
# (necessary because e_float16 was created in an autocasted region)
f_float32 = torch.mm(c_float32, e_float16.float())

# No manual casts are required when re-entering the autocast-enabled region.
# torch.mm again runs in float16 and produces float16 output, regardless of input types.
g_float16 = torch.mm(d_float32, f_float32)

参数说明

  • device_type(string,required) -- 是使用“cuda”还是“cpu”设备
  • enabled(​bool,optional,default=True) -- 是否应该在区域中启用autocast。
  • dtype(torch_dpython:type,optional) -- 是使用 torch.float16 还是 torch.bfloat16。
  • cache_enabled(​bool,optional,default=True) -- 是否应该启用自动转换中的权重缓存。

2.2 torch.cuda.amp.autocast

相当于​​torch.autocast("cuda", args...)​

3 Gradient Scaling

​ 如果特定操作的前向传递具有​​float16​​​输入,则该操作的反向传递将产生​​float16​​​梯度。小幅值的梯度值可能无法在​​float16​​​中表示。这些值将刷新为零(“下溢”),因此相应参数的更新将丢失。为了防止下溢,“梯度缩放”将网络的损失乘以比例因子,并在缩放的损失上调用反向传递。然后通过相同的因子缩放通过网络向后流动的梯度。换句话说,梯度值的幅度更大,因此它们不会刷新为零。在优化器更新参数之前,每个参数的梯度(​​.grad​​属性)都应该是未缩放的,因此缩放因子不会干扰学习率。

torch.cuda.amp.GradScaler(init_scale=65536.0, growth_factor=2.0, backoff_factor=0.5, growth_interval=2000, enabled=True)

GradScaler有两个关键的方法:

  • GradScaler.step(optimizer)
  • 内部调用​​unscale_(optimizer)​​​(除非​​unscale_()​​​在迭代早期明确调用)。​​optimizer​​​作为​​unscale_()​​的一部分,梯度会检查 infs/NaNs;
  • 如果没有找到 inf/NaN 梯度,则​​optimizer.step()​​​使用未缩放的梯度调用。否则,​​optimizer.step()​​将跳过以避免损坏参数。
  • update(new_scale=None)
    更新比例因子。如果跳过任何优化器步骤,则将比例乘以​​backoff_factor​​ 以减少它。如果​​growth_interval​​未跳过的迭代连续发生,则将比例乘以​​growth_factor​​增加它。
    通过​​new_scale​​手动设置新的比例值。(​​new_scale​​不直接使用,它用于填充 GradScaler 的内部尺度张量。因此,如果 ​​new_scale​​是张量,则稍后对该张量的就地更改不会进一步影响 GradScaler 内部使用的尺度。)

3.1 使用案例

model = Net().cuda()
optimizer = optim.SGD(model.parameters(), ...)
scaler = amp.GradScaler(enabled=True)

for input, target in data:
optimizer.zero_grad()

# Enables autocasting for the forward pass (model + loss)
with autocast():
output = model(input)
loss = loss_fn(output, target)

# Exits the context manager before backward()
# Backward
scaler.scale(loss).backward()
scaler.step(optimizer) # optimizer.step
scaler.update()

清澈的爱,只为中国