pbar = tqdm(enumerate(train_dataloader), total=len(train_dataloader))
model.train()
for batch, (data, labels) in pbar:
data, labels = data.to(device), labels.to(device)
# ...
pbar.update()
pbar.set_description(
f"Train: [{epoch + 1:03d}] "
f"Loss: {(epoch_loss / (batch + 1)):.3f}, "
)
pbar.close()
'기술 > PyTorch' 카테고리의 다른 글
nn.AdaptiveAvgPool1d (0) | 2022.02.10 |
---|---|
DistributedDataParallel 관련 링크 정리 (0) | 2021.12.27 |
torchvision.models 의 IntermediateLayerGetter (1) | 2021.10.06 |
nn.Sequential 에 OrderedDict 넣어줘도 됨 (0) | 2021.08.18 |
실제 torch weights 살펴보기 (0) | 2021.08.17 |