0
respostas

[Dúvida] Configuração da LLM

Olá! A didática da Valquíria é muito boa <3

Fiquei um pouco confusa com um detalhe, se puderem me esclarecer melhor, por favor:

Na linha: Settings.llm=Groq(model='llama3-70B-8192', api_key=key), entendo o que fizemos, no entanto, a instrutora menciona algo como "a chave ser necessária para acesso a recursos da OpenAI". Sendo assim, não entendo a relação entre estarmos usando o modelo Llama (Meta) e a OpenAI.

Seria uma "garantia" para possíveis acessos indiretos/compartilhados a recursos?

Obrigada! :D