Optei por utilizar o Grog por causa da limitação da API do Google.
# Lita de perguntas:
lista_de_perguntas = [
"De que é feito o Sol?",
"De que é feito o planeta Saturno?",
"Qual é a galáxia mais antiga já encontrada?",
"Qual é a maior estrela já encontrada?",
"Qual é a estrela mais próxima do Sol?"
"Como otimizar códigos python?",
"Bibliotecas para trabalhar com coleta de dados do airflow?",
"O que fazer com logs do airflow para análise profunda?",
"Pode ser difundido sistemas intermediários entre airflow e dataflow?",
"Qual os salários de um engenheiro de IA? "
]
# Ler as perguntas, salvar em um txt e salvar em uma lista novamente:
with open('perguntas.txt', 'w', encoding='utf-8') as arq:
for linha in lista_de_perguntas:
arq.write(linha + '\n')
novas_perguntas = list()
with open('perguntas.txt', 'r', encoding='utf-8') as a:
for linha in a:
novas_perguntas.append(linha)
# Obter as respostas da LLM (GROQ)
arquivo_csv = []
for _, pergunta in enumerate(novas_perguntas):
resposta_completa = ''
respostas = client.chat.completions.create(model='openai/gpt-oss-20b',
messages=[{'role':'user', 'content':pergunta}],
temperature=0.7, max_completion_tokens=8192, top_p=1, stream=True)
for resp in respostas:
conteudo = resp.choices[0].delta.content or ''
resposta_completa += conteudo
arquivo_csv.append({'Pergunta': pergunta, 'Resposta':resposta_completa.strip()})
# Salvar e ler o arquivo em pandas
df = pd.DataFrame(arquivo_csv)
df.to_csv('respostas.csv', index=False, encoding='utf-8')