Solucionado (ver solução)
Solucionado
(ver solução)
1
resposta

Taxa de acerto aumenta com a diminuição de amostras de treino. Qual sua opiniao? (veja o comentario no codigo)

Observei que ao variar a quantidade de amostras no treino, obtenho #diferentes valores de taxa de acerto. Mas o mais incrivel foi que quanto menor #a amostra para treino, (desde que maior que 32), maior foi a taxa de acerto. #Claro que sempre utilizei os mesmo casos iniciais para treinamento. QUal sua #opinião sobre esse limite ?

from dados import carregar_acessos
X, Y = carregar_acessos()

from sklearn.naive_bayes import MultinomialNB
modelo = MultinomialNB()

treinoX = X[:32]
treinoY = Y[:32]

testeX  = X[-67:]
testeY  = Y[-67:]

modelo.fit(treinoX, treinoY)

result = modelo.predict(testeX)

diff = result - testeY
acertos = [d for d in diff if d==0]
total_acertos = len(acertos)
total_elementos = len(testeX)

taxa_de_acerto = 100.0*total_acertos/total_elementos
print(taxa_de_acerto)
1 resposta
solução!

Oi Danilo, tudo bem?

Isso deve ser uma coincidência da amostra de dados :).

Quando separamos os dados para treino, devemos tomar cuidado com quais dados estão sendo separados. Pois, dependendo da amostra que estamos treinando o modelo, este pode ficar viciado com os valores da amostra

Essa forma que estamos separando os dados é uma das maneiras que podemos fazer. Porém, ela pode trazer alguns problemas. Mais adiante no curso, você verá outra maneira que é utilizada para separar os dados, o k-fold.