3
respostas

Meu modelo passou por 1875 imagens em vez de 60 mil.

Estou fazendo o curso de Deep Learning com Keras (muito legal por sinal!) e na aula 4 após toda a criação, inclusão de camadas e compilação do modelo, obtive como retorno que ele passou por 1875 /1875 imagens ao invés das 60mil . Além disso ele não me retornou informação referente a "epoch".

Conferi o tamanho do x_treino e y_treino, sendo 60mil mesmo, conferi o código várias vezes pra ver se não tinha esquecido nada e aparentemente não.

Você saberia me dizer o que acontece no meu caso?

Abaixo está meu código sem a normalização das imagens e a resposta que obtive:

import tensorflow
from tensorflow import keras

dataset = keras.datasets.fashion_mnist
((x_treino, y_treino), (x_teste, y_teste)) = dataset.load_data()


entrada = keras.layers.Flatten(input_shape=(28,28)) 

processamento = keras.layers.Dense(256, activation=tensorflow.nn.relu) 

saida = keras.layers.Dense(10, activation=tensorflow.nn.softmax)  


modelo = keras.Sequential([entrada, processamento, saida])


modelo.compile(optimizer='adam',                          
               loss='sparse_categorical_crossentropy')    

modelo.fit(x_treino, y_treino)

1875/1875 [==============================] - 5s 3ms/step - loss: 4.2074
<tensorflow.python.keras.callbacks.History at 0x7fe490959b00>
3 respostas

É pq a instruutora divide "quantidade de imagens toda vez ela da um refresh na célula, tenta separa a parte q ela normaliza as imagens e dps olha o resultado.

O problema era a versão do tensor flow, tive que instalar a versão anterior, aí funcionou corretamente.

Pessoal, De acordo com essa resposta no stackoverflow, pode ficar tranquilo que o modelo está passando por toda a sua massa. Como você mesmo viu Leandro, a diferença está na versão das libs e o que elas logam. Mas o modelo é o mesmo.