Bom dia. Eu estava fazendo alguns exercícios e, durante a "codificação", surgiu uma dúvida.
Utilizei o código a seguir:
# Criando e testando um dicionário:
salarios = {1172: 1, 1644: 1, 2617: 1, 5130: 1,
5532: 1, 6341: 1, 6650: 1, 7238: 1,
7685: 1, 7782: 1, 7903: 1}
for valor in salarios:
salarios[valor] = 0.1*valor
salarios
E o resultado:
{1172: 117.2,
1644: 164.4,
2617: 261.7,
5130: 513.0,
5532: 553.2,
6341: 634.1,
6650: 665.0,
7238: 723.8000000000001,
7685: 768.5,
7782: 778.2,
7903: 790.3000000000001}
Minha dúvida foi: por que, em alguns casos, a quantidade de casas decimais foi maior que em outras, se não há diferença na escrita?
Na hora de "printar" o resultado final eu utilizei o {.:2f}.format()
e resolveu o problema, mas fiquei curioso pra entender a teoria. rs
Alguém poderia me dar um pequeno help do porquê isso aconteceu?
Desde já, agradeço! Abraços para todos!