Solucionado (ver solução)
Solucionado
(ver solução)
3
respostas

Naive Bayes VS Ifs......

Não sei se estou certo em meu pensamento, mas..

O fato de ensinarmos a máquina com exemplos (dados) e marcações e então chamar predict(), no fundo, em termos de código, poderia ser substituído por vários IFs.

Porém, o problema seria de OCP pois, assim que novas características para classificar um porco surgissem, deveríamos alterar a classe adicionando mais IFs.

Entretanto, todos esses IFs acontecem por baixo dos panos, dentro da função predict().

Na prática, em minha opinião, não chega a ser inteligente, mas tão somente uma "tabela reativa".

Estou certo até aqui ?

Chego a pensar que essa geração tem tentando re-inventar a roda as vezes, dando nomes novos para coisas que já existiam. Apenas porque se recusou a olhar para trás.

3 respostas

Olá Marcelo, tudo bem?

Bem a fundo, podemos imaginar que são vários ifs. O que acontece na verdade é que temos uma fórmula que calcula a probabilidade do dado estar em uma classe ou não.

Esse cálculo leva em conta a probabilidade de cada feature, isto é, de cada observação ocorrer em uma classe. Ao final, por meio dessas probabilidades ele calcula quanto o dado pertence àquela classe.

No final, não temos um if na implementação, apenas uma fórmula matemática que se adequa ao número de observações.

Olá yuri,

Ainda que, por trás dos panos, e aquém da nossa ciência, esteja rolando um monte de IFs... não é?

solução!

Olá Marcelo,

Nas funções matemáticas que a biblioteca usa, pode sim ter muitos ifs. Mas isso está encapsulado para a gente, não importa quantas observações passamos, a sci-kit consegue se virar com eles.