Oi Bruno,
boa observação! :)
Essa mudança pode ter sido uma falha na gravação, mas geralmente tem mesmo uma diferença nos valores por causa do algoritmo que usamos.
Quanto ao alpha e outros parâmetros, parece que eles sobraram no código.
Se olharmos na documentação,
sklearn.naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
repare que os parâmetros que aparecem no video são parâmetros padrão do MultinomialNB, ou seja, caso a gente não escreva, ele naturalmente já vale 1.0.
Em outras palavras, daria no mesma escrever
sklearn.naive_bayes.MultinomialNB()
ou
sklearn.naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
por serem valores padrão.
Sobre a diferença de resultado, por debaixo dos panos do MultinomialNB tem uma conta que é feita. Nessa conta tem valores que são estimados, como eles podem variar, os valores do resultado também.
Para você ter uma idéia, mais ou menos o que o modelo faz é pegar os dados e calcular qual a probabilidade de cada um deles acontecer (o que pode mudar), multiplica isso por quantas vezes eles aparecem (se repetem nos dados) e divide por quantos dados tem. E é esse número final que diz qual a classe a que cada um deles pertence.
O que eu sugiro é ficar atento para o resultado do seu código e pegar a parte prática do início ao fim do curso. Aí, quando estiver familiarizado com o projeto, ir estudando esses detalhes de como funciona por dentro. Você pode ficar testando, mexendo e brincando com eles para ver que diferença faz, e claro, continuar postando aqui no fórum.
Eu espero ter esclarecido um pouco. Qualquer outra dúvida, só mandar aqui.