0
respostas

[Dúvida] 1875 Imagens - Parâmetro batch_size - Por que diminuir aumenta o ERRO?

Para quem estiver utilizando tensorflow em uma versão superior 2.1 - por default o parâmetro batch_size vale 32. Ou seja, o teino será feito para amostra/batch_size por vez.

O número que aparece é o número de interações e não um "count" de registros treinados

Em outros tópicos você vai achar sujestões de reinstalar o tensorflow - para corrigir o "bug" - não é bug, é uma otimização muito interessante. Se quiser rodar uma imagem por vez, use: modelo.fit(imagens_treino, identificacoes_treino, epochs=5,batch_size=1).

Mas o ponto importante é: Treinando uma imagem por vez o erro aumenta. (Estou usando o Google Colab)

Alguém que está usando um ambiente "on-premise" - poderia enviar os outputs?

Ex.:

batch_sjize=default Epoch 1/5 1875/1875 [==============================] - 6s 3ms/step - loss: 0.4864 - accuracy: 0.8270 Epoch 2/5 1875/1875 [==============================] - 6s 3ms/step - loss: 0.3639 - accuracy: 0.8680 Epoch 3/5 1875/1875 [==============================] - 5s 3ms/step - loss: 0.3266 - accuracy: 0.8799 Epoch 4/5 1875/1875 [==============================] - 6s 3ms/step - loss: 0.3023 - accuracy: 0.8878 Epoch 5/5 1875/1875 [==============================] - 5s 3ms/step - loss: 0.2837 - accuracy: 0.8942

batch_size=16 Epoch 1/5 3750/3750 [==============================] - 10s 3ms/step - loss: 0.4789 - accuracy: 0.8284 Epoch 2/5 3750/3750 [==============================] - 10s 3ms/step - loss: 0.3656 - accuracy: 0.8659 Epoch 3/5 3750/3750 [==============================] - 10s 3ms/step - loss: 0.3284 - accuracy: 0.8791 Epoch 4/5 3750/3750 [==============================] - 10s 3ms/step - loss: 0.3043 - accuracy: 0.8882 Epoch 5/5 3750/3750 [==============================] - 10s 3ms/step - loss: 0.2861 - accuracy: 0.8950

batch_size=2 Epoch 1/5 30000/30000 [==============================] - 72s 2ms/step - loss: 0.4823 - accuracy: 0.8264 Epoch 2/5 30000/30000 [==============================] - 69s 2ms/step - loss: 0.3878 - accuracy: 0.8608 Epoch 3/5 30000/30000 [==============================] - 69s 2ms/step - loss: 0.3617 - accuracy: 0.8698 Epoch 4/5 30000/30000 [==============================] - 70s 2ms/step - loss: 0.3447 - accuracy: 0.8775 Epoch 5/5 30000/30000 [==============================] - 70s 2ms/step - loss: 0.3336 - accuracy: 0.8809

batch_size=1 Epoch 1/5 60000/60000 [==============================] - 140s 2ms/step - loss: 0.5056 - accuracy: 0.8174 Epoch 2/5 60000/60000 [==============================] - 139s 2ms/step - loss: 0.4193 - accuracy: 0.8546 Epoch 3/5 60000/60000 [==============================] - 137s 2ms/step - loss: 0.3984 - accuracy: 0.8638 Epoch 4/5 60000/60000 [==============================] - 142s 2ms/step - loss: 0.3864 - accuracy: 0.8703 Epoch 5/5 60000/60000 [==============================] - 153s 3ms/step - loss: 0.3822 - accuracy: 0.8735

Quer mergulhar em tecnologia e aprendizagem?

Receba a newsletter que o nosso CEO escreve pessoalmente, com insights do mercado de trabalho, ciência e desenvolvimento de software