繁体   English   中英

Python:tqdm 不显示进度条

[英]Python: tqdm not showing progress bar

我已经为我的网络的fit function 编写了 PyTorch 代码。 但是当我在其中的循环中使用tqdm时,它不会从 0% 增加,这是我无法理解的原因。

这是代码:

from tqdm.notebook import tqdm

def fit(model, train_dataset, val_dataset, epochs=1, batch_size=32, warmup_prop=0, lr=5e-5):

    device = torch.device('cuda:1')
    model.to(device)
    
    train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
    val_loader = DataLoader(val_dataset, batch_size=batch_size, shuffle=False)

    optimizer = AdamW(model.parameters(), lr=lr)
    
    num_warmup_steps = int(warmup_prop * epochs * len(train_loader))
    num_training_steps = epochs * len(train_loader)
    
    scheduler = get_linear_schedule_with_warmup(optimizer, num_warmup_steps, num_training_steps)

    loss_fct = nn.BCEWithLogitsLoss(reduction='mean').to(device)
    
    for epoch in range(epochs):
        model.train()
        start_time = time.time()
        
        optimizer.zero_grad()
        avg_loss = 0
        
        for step, (x, y_batch) in tqdm(enumerate(train_loader), total=len(train_loader)): 
            y_pred = model(x.to(device))
            
            loss = loss_fct(y_pred.view(-1).float(), y_batch.float().to(device))
            loss.backward()
            avg_loss += loss.item() / len(train_loader)


            optimizer.step()
            scheduler.step()
            model.zero_grad()
            optimizer.zero_grad()
                
        model.eval()
        preds = []
        truths = []
        avg_val_loss = 0.

        with torch.no_grad():
            for x, y_batch in val_loader:                
                y_pred = model(x.to(device))
                loss = loss_fct(y_pred.detach().view(-1).float(), y_batch.float().to(device))
                avg_val_loss += loss.item() / len(val_loader)
                
                probs = torch.sigmoid(y_pred).detach().cpu().numpy()
                preds += list(probs.flatten())
                truths += list(y_batch.numpy().flatten())
            score = roc_auc_score(truths, preds)
            
        
        dt = time.time() - start_time
        lr = scheduler.get_last_lr()[0]
        print(f'Epoch {epoch + 1}/{epochs} \t lr={lr:.1e} \t t={dt:.0f}s \t loss={avg_loss:.4f} \t val_loss={avg_val_loss:.4f} \t val_auc={score:.4f}')

Output
output 使用所需参数执行fit function 后如下所示:
0%| | 0/6986 [00:00<?, ?it/s]

如何解决这个问题?

当您从tqdm.notebook导入时,这意味着您正在使用 Jupyter 笔记本,对吗? 如果不是,你必须from tqdm import tqdm做。

我简化了您的示例代码,使其真正最小化,如下所示:

import time
from tqdm.notebook import tqdm

l = [None] * 10000

for i, e in tqdm(enumerate(l), total = len(l)): 
    time.sleep(0.01)

并在 Google Colab jupyter notebook 上执行。 它向我展示了这样的进度条:

在此处输入图像描述

所以这意味着tqdm可以在笔记本模式下正常工作。 因此,您的可迭代或循环代码存在一些问题,而不是 tqdm。 可能的原因可能是您的内部循环需要很长时间,因此即使 1 次迭代(在您的情况下总共 6986 次)也需要永远并且不会显示在进度条中。

另一个原因是您的迭代需要永远生成第二个元素,您还必须检查它是否有效。

另外我看到您向我们展示了 ASCII 进度条,这不是笔记本中通常显示的进度条(笔记本通常显示图形条)。 所以也许你根本不在笔记本里面? 然后你必须做from tqdm import tqdm而不是from tqdm.notebook import tqdm

还首先尝试暂时简化您的代码,以找出原因是否真的与您的案例中的tqdm模块有关,而不是与您的可迭代或循环代码有关。 尝试从我上面提供的代码开始。

另外,不要尝试在循环中打印诸如print(step)之类的内容,而是尝试在屏幕上打印至少两行?

如果在我的代码中执行from tqdm import tqdm然后在控制台 Python 中执行它,那么我得到:

10%|███████████▉              | 950/10000 [00:14<02:20, 64.37it/s]

这意味着控制台版本也可以。

如果笔记本不受信任,则在 Jupyter 中可能会发生这种情况 - 如果是这种情况,请单击右上角的“不受信任”框。

这是因为在终端环境中使用from tqdm.notebook import tqdm而不是from tqdm import tqdm

提供一个例子来说明这个问题:

from tqdm.notebook import tqdm

if __name__ == '__main__':
    data = range(10000)
    for i, item in enumerate(tqdm(range(len(data)))):
        i = i + 1

它将显示:在此处输入图像描述

但是,如果您使用此代码示例:

from tqdm import tqdm

if __name__ == '__main__':
    data = range(10000)
    for i, item in enumerate(tqdm(range(len(data)))):
        i = i + 1

它将显示:在此处输入图像描述

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM