Olá, gostaria de saber se é possível salvar os dados de output ou loss durante o treinamento de uma rede para que quando for treinada novamente não comece do "zero". Caso sim, como poderia fazer?
Acretido que poderia salvar durante o loop e antes de começar o treinamento carregar essas informações da loss na primeira interação
for epoch in range(args['num_epochs']):
epoch_loss = []
for batch in train_loader:
dado, rotulo = batch
dado = dado.to(args['device'])
rotulo = rotulo.to(args['device'])
# Forward
output = my_net(dado)
loss = criterion(output, rotulo)
epoch_loss.append(loss.cpu().data)
# Backward
loss.backward()
optimizer.step()
epoch_loss = np.asarray(epoch_loss)
# Salvar os dados da variável epoch_loss em banco
print(f'Epoca: {epoch+1} | Loss: {epoch_loss.mean():.4f} + / - {epoch_loss.std():.4f}')