Não é possível usar torch.stackporque os tensores possuem tamanhos diferentes. Uma solução é processar cada sequência individualmente ou utilizar preenchimento ( pad_sequence) para padronizar os tamanhos e permitir o processamento em lote.
import torch
Exemplo de sequências (nomes com tamanhos diferentes)
dados_tns = [
torch.randn(3, 5), # nome com 3 letras
torch.randn(5, 5), # nome com 5 letras
torch.randn(4, 5) # nome com 4 letras
]
Tentativa de empilhar (VAI DAR ERRO)
try:
batch = torch.stack(dados_tns)
except Exception as e:
print("Erro:", e)