6
respostas

Estou tendo problemas para com a execução do código Python.

PS C:\Users\dmitr\Downloads\Puthon-IA> python3.13.exe .\chamada-ao-llm.py
Traceback (most recent call last):
File "C:\Users\Downloads\Puthon-IA\chamada-ao-llm.py", line 1, in
from openai import OpenAI
ModuleNotFoundError: No module named 'openai'
Insira aqui a descrição dessa imagem para ajudar na acessibilidade A imagem mostra que o modelo Gemma-3-!B está pronto, mas não consegui executar o script em Python mesmo tendo instalado o openai

Matricule-se agora e aproveite até 50% OFF

O maior desconto do ano para você evoluir com a maior escola de tecnologia

QUERO APROVEITAR
6 respostas

Olá, Dmitri! Tudo bem?

Vendo o erro que apareceu, parece que o Python não está encontrando o módulo openai.

Para resolver, siga os seguintes passos:

  1. Verifique se o ambiente virtual está ativo.
  2. Instale a biblioteca openai novamente dentro do ambiente virtual.

Veja os comandos:


# Ative o ambiente virtual
.venv\Scripts\Activate
# Ou
source .venv/bin/activate

# Instale a biblioteca openai
pip install -q openai

Após a instalação, tente executar o script novamente.

Espero ter ajudado. Conte com o apoio do Fórum na sua jornada. Fico à disposição.

Abraços e bons estudos!

Caso este post tenha lhe ajudado, por favor, marcar como solucionado

Tive que remover a restrição de execução de script através do comando:

Set-ExecutionPolicy RemoteSigned

Só depois, executar o:
'''
.venv\Scripts\Activate
'''

Depois, retornei a restrição através do comando:

Set-ExecutionPolicy Restricted

Depois, tentei: pip install -q openai
Como o erro persistiu, removi a restrição, instalei novamente o openai e retornei a restrição. Deu o mesmo erro. Então fiz o mesmo processo, sem a restrição e tentei sem a restrição e nem assim deu certo. Então, retornei a restrição.

Olá Dmitri! Que bom que deu certo assim :)

Conte sempre com nosso apoio. Sucesso!

Não, Rafaela. Infelizmente não deu certo. Não consegui utilizar o modelo através do Cursor

Oi, Dmitri!

Sinto muito, conforme li entendi que havia solucionado. Vamos tentar outra abordagem então:

  1. Instale o pacote no MESMO interpretador que você usa para executar o script
# no diretório do projeto, usando o executável que você chamou (python3.13.exe)
.\python3.13.exe -m pip install --upgrade pip
.\python3.13.exe -m pip install "openai>=1.0.0"
# teste rápido (deve imprimir "ok" sem erros)
.\python3.13.exe -c "import openai; from openai import OpenAI; print('ok')"

Se aparecer o mesmo erro, o pacote não foi para o Python que executa seu script. Continue sempre usando .\python3.13.exe para instalar e rodar.

2) Ative o servidor compatível do LM Studio

  • Abra o LM Studio.
  • Carregue o modelo Gemma (ex.: Gemma 2 9B Instruct).
  • Vá em DeveloperOpenAI Compatible Server e Start Server.
  • Anote o Endpoint Base (geralmente http://localhost:1234/v1) e a API Key mostrada pelo LM Studio (se não exigir, use um valor qualquer, ex.: lm-studio-local).

3) Ajuste seu script Python para o LM Studio (OpenAI-Compatible)

  • Use base_url="http://localhost:1234/v1".
  • Coloque o nome EXATO do modelo mostrado no LM Studio (ex.: "gemma-2-9b-it" ou o que estiver na aba Local Server).

Veja este exemplo:

from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:1234/v1",
    api_key="lm-studio-local"  # use a key do LM Studio ou um valor aceito por ele
)

res = client.chat.completions.create(
    model="gemma-2-9b-it",  # ajuste para o nome que aparece no LM Studio
    messages=[
        {"role": "system", "content": "Você é um assistente útil."},
        {"role": "user", "content": "Diga 'Olá, mundo!' em uma linha."}
    ]
)

print(res.choices[0].message.content)

4) Execute com o mesmo interpretador
.\python3.13.exe .\chamada-ao-llm.py

5) Dica para o Cursor (IDE) usando LM Studio

  • Configurações do Cursor → escolha OpenAI-Compatible ou OpenAI (Custom).
  • API Base: http://localhost:1234/v1
  • API Key: a do LM Studio (ou lm-studio-local se o app aceitar).
  • Model: o mesmo nome que você usou no script (ex.: gemma-2-9b-it).

6) Checagens rápidas se algo não responder

  • Porta/endpoint: confirme http://localhost:1234/v1.
  • Modelo rodando: escolha um modelo Instruct e carregue-o no LM Studio.
  • Sombras de nome: não tenha arquivo/pasta chamada openai no projeto.
  • Proxy/Firewall: libere localhost:1234 no Windows se houver bloqueio.

Seu avanço é importante. Ajustando o base_url, o model e garantindo a instalação no Python certo, o LM Studio funciona sem dor de cabeça.

Espero que ajude e fico à disposição. Um abraço!

Ao executar: python3.13.exe -m pip install "openai>=1.0.0" tive como retorno:

ERROR: Exception:
Traceback (most recent call last):
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13_qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip_vendor\packaging\markers.py", line 280, in init
self._markers = _normalize_extra_values(_parse_marker(marker))
* ~~~~~~~~~~~~~^^^^^^^^
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\vendor\packaging\parser.py", line 253, in parsemarker
return parsefullmarker(Tokenizer(source, rules=DEFAULTRULES))
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\vendor\packaging\parser.py", line 257, in parsefullmarker
retval = parsemarker(tokenizer)
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\vendor\packaging\parser.py", line 266, in parsemarker
expression = [parsemarkeratom(tokenizer)]
~~~~~~~~~~~~~~~~~~^^^^^^^^^^^
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\vendor\packaging\parser.py", line 291, in parsemarkeratom
marker = parsemarkeritem(tokenizer)
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\vendor\packaging\parser.py", line 301, in parsemarkeritem
markervarleft = parsemarkervar(tokenizer)
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\vendor\packaging\parser.py", line 319, in parsemarkervar
tokenizer.raisesyntaxerror(
~~~~~~~~~~~~~~~~~~~~~~~~~~~~^
message="Expected a marker variable or quoted string"
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
)
^
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\vendor\packaging\tokenizer.py", line 168, in raisesyntaxerror
raise ParserSyntaxError(
...<3 lines>...
)
pip.vendor.packaging.tokenizer.ParserSyntaxError: Expected a marker variable or quoted string
=1.0.0
^

The above exception was the direct cause of the following exception:

Traceback (most recent call last):
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\internal\cli\basecommand.py", line 107, in runwrapper
status = innerrun()
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\internal\cli\basecommand.py", line 98, in innerrun
return self.run(options, args)
~~~~~~~~^^^^^^^^^^^^^^^
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\internal\cli\reqcommand.py", line 85, in wrapper
return func(self, options, args)
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\internal\commands\install.py", line 354, in run
reqs = self.getrequirements(args, options, finder, session)
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\internal\cli\reqcommand.py", line 264, in getrequirements
reqtoadd = installreqfromline(
req,
...<3 lines>...
configsettings=getattr(options, "configsettings", None),
)
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\internal\req\constructors.py", line 427, in installreqfromline
parts = parsereqfromline(name, linesource)
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\internal\req\constructors.py", line 342, in parsereqfromline
markers = Marker(markersasstring)
File "C:\Users\User\AppData\Local\Packages\PythonSoftwareFoundation.Python.3.13qbz5n2kfra8p0\LocalCache\local-packages\Python313\site-packages\pip\vendor\packaging\markers.py", line 298, in init
raise InvalidMarker(str(e)) from e
pip.vendor.packaging.markers.InvalidMarker: Expected a marker variable or quoted string
=1.0.0
^*