1
resposta

[Sugestão] Essa questão pede para calcular o recall, mas a alternativa correta tem a precisão do modelo

Essa questão pede para calcular o recall, mas a alternativa correta tem a precisão do modelo

1 resposta

Olá, Vitor! Tudo bem com você?

Desculpas pela demora em dar um retorno.

A questão solicita o recall e o f1-score respectivamente, que possuem os valores 0.428 e 0.461. Podemos comprovar isso de acordo com o código abaixo:

# Importando os métodos para calcular as métricas
from sklearn.metrics import recall_score, precision_score, f1_score

# Dados ofericidos na questão
diagnostico_predito = [0,0,0,0,1,1,1,1,0,1,0,1]
diagnostico_real = [1,1,0,0,1,1,1,0,1,0,1,0]

# Calculando as métricas
print(f"Recall = {round(recall_score(diagnostico_real, diagnostico_predito), 3)}")
print(f"f1-score = {round(f1_score(diagnostico_real, diagnostico_predito), 3)}")

Saída:

Recall = 0.429
f1-score = 0.462

Os valores tiveram uma pequena diferença devido a aproximação.

Os valores acima comprovam que de fato a alternativa correta é a letra B. Para conferimos o valor da precisão poderíamos fazer da seguinte forma:

print(f"precisão = {round(precision_score(diagnostico_real, diagnostico_predito), 3)}")

Saída:

precisão = 0.5

Qualquer dúvida estou à disposição.

Caso este post tenha lhe ajudado, por favor, marcar como solucionado ✓. Bons Estudos!