Oi, pessoal! Estou com uma dúvida relacionada ao uso de modelos refinados (fine-tuned) com gpt-3.5-turbo-1106 via API da OpenAI. Fiz o processo de fine-tuning com validação, o modelo foi treinado com sucesso e aparece como succeeded na plataforma. O nome do modelo final é:
ft:gpt-3.5-turbo-1106:personal::BpdyUGL0
Já atualizei a biblioteca openai com: pip install --upgrade openai
E confirmei que o modelo gpt-3.5-turbo e o refinado ft:gpt-3.5-turbo-1106:personal::BpdyUGL0 aparecem corretamente na resposta do terminal quando uso: openai api models.list
O problema é que, ao tentar usar esse modelo no código com client.chat.completions.create(...), recebo este erro: openai.NotFoundError: Error code: 404 - {'message': "The model 'ft:gpt-3.5-turbo-1106:personal::BpdyUGL0' does not exist or you do not have access to it.", 'type': 'invalid_request_error', 'code': 'model_not_found'}
Já revisei o nome, a chave está correta, o modelo foi validado, e o modelo refinado foi criado há mais de 1h, então não é problema de delay — e estou usando exatamente como orientado mas ele simplesmente não é aceito na execução, mesmo sendo listado.
Observação: Também tentei utilizar a nova forma de chamada conforme a documentação atualizada da OpenAI, com openai.ChatCompletion.create(...) , em vez de client = OpenAI(...) e mesmo assim, o erro model_not_found continua aparecendo.
Alguém já passou por isso ou sabe o que mais posso verificar?