1
resposta

O modelo foi removido pelo google. Testei com outro modelo e funcionou

O modelo foi removido pelo google. Testei com outro modelo e funcionou
###########################
0.Configuração do Ambiente
!pip install -U google-genai

from google import genai
import os

os.environ["GOOGLE_API_KEY"] = "SUA_CHAVE"

client = genai.Client()

#Verifica se estamos no endpoint certo (v1)
models = client.models.list()
for m in models:
print(m.name)

response = client.models.generate_content(
model="models/gemini-2.5-flash",
contents="What is HPC?"
)

print(response.text)

###########################
1Prompting Tradicional vs RAG - Comparação Prática

from langchain_google_genai import ChatGoogleGenerativeAI
from langchain_core.prompts import ChatPromptTemplate

llm = ChatGoogleGenerativeAI(
model="models/gemini-2.5-flash",
temperature=0
)

prompt = ChatPromptTemplate.from_messages([
("system", "You are a helpful assistant"),
("human", "{input}")
])

chain = prompt | llm
print(chain.invoke({"input": "O que é HPC?"}).content)

1 resposta

Oi, Ricardo! Como vai?

Agradeço por compartilhar seu código com a comunidade Alura.

Parabéns pelo cuidado em validar os modelos disponíveis antes de seguir com o curso, além do teste prático ao trocar o modelo removido pelo Google, o que mostra uma boa postura de investigação e adaptação ao contexto do LangChain e do RAG.

Uma dica interessante para o futuro é usar try e except para lidar melhor com mudanças em APIs ou modelos indisponíveis:


try:
    response = client.models.generate_content(
        model="models/gemini-2.5-flash",
        contents="What is HPC?"
    )
    print(response.text)
except Exception as erro:
    print("Erro ao gerar resposta:", erro)

Esse código tenta gerar o conteúdo e, caso ocorra algum erro, exibe uma mensagem clara, ajudando no diagnóstico rápido.

Obrigada também por compartilhar com outros estudantes a solução que você encontrou!

Alura Conte com o apoio da comunidade Alura na sua jornada. Abraços e bons estudos!