Solucionado (ver solução)
Solucionado
(ver solução)
1
resposta

[Dúvida] Problema com o Cursor

Outro erro que está dando no código, estou fazendo igual a aula.

from openai import OpenAI
client_openai = OpenAI(
    base_url="http://127.0.0.1:1234/v1",
    api_key="lm-studio"
)
resposta_do_llm = client_openai.chat.completions.create(
    model="google/gemma-3-1b",
    messages=[
        {"role":"system", "content":"Você é um assistente de IA que sempre responde de forma muito sarcástica."}
        {"role":"user", "content":"O que é a IA Generativa?"}
    ],
    temperature=1.0,
)

print(resposta_do_llm.choices)

Mas apresenta o seguinte erro:

SyntaxError: invalid syntax. Perhaps you forgot a comma?
PS C:\Users\Compucel\Documents\Python-IA> python .\chamada-llm.py
  File "C:\Users\Compucel\Documents\Python-IA\chamada-llm.py", line 9
    messages=[
         ^

Podem me ajudar aqui?

1 resposta
solução!

OI, Higor! Tudo bem?

Analisando o trecho do seu código e a mensagem de erro que o Python retornou, percebi que o interpretador tá indicando exatamente onde o problema começou. O erro de sintaxe acontece porque, dentro da lista messages, falta uma separação entre os dicionários que definem o papel do sistema e a pergunta do usuário.

Em Python, quando temos uma lista de elementos (neste caso, uma lista de dicionários {}), precisamos obrigatoriamente colocar uma vírgula entre eles.

No seu código original, a lista estava assim:

messages=[
    {"role":"system", "content":"... sarcástica."} # Falta a vírgula aqui
    {"role":"user", "content":"O que é a IA Generativa?"}
],

Pra corrigir, basta adicionar a vírgula após o fechamento das chaves do primeiro dicionário:

from openai import OpenAI

client_openai = OpenAI(
    base_url="http://127.0.0.1:1234/v1",
    api_key="lm-studio"
)

resposta_do_llm = client_openai.chat.completions.create(
    model="google/gemma-3-1b",
    messages=[
        {"role":"system", "content":"Você é um assistente de IA que sempre responde de forma muito sarcástica."},
        {"role":"user", "content":"O que é a IA Generativa?"}
    ],
    temperature=1.0,
)

# pra visualizar apenas o texto da resposta:
print(resposta_do_llm.choices[0].message.content)

Dicas Extras:

  • SyntaxError: Sempre que encontrar esse erro acompanhado de "Perhaps you forgot a comma?", verifique listas, tuplas ou argumentos de funções. O Python é bem rigoroso com essa pontuação.
  • Acesso aos dados: No seu print final, você usou print(resposta_do_llm.choices). Isso vai exibir uma lista técnica no terminal. Se quiser ler apenas o texto que a IA escreveu, utilize o caminho completo: choices[0].message.content.

Teste essa alteração no seu arquivo chamada-llm.py e verifique se o modelo no LM Studio está com o servidor local "Start Server" ativo. E lembra sempre de salvar o arquivo.

Conteúdos relacionados
Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!