Ferramentas generativas precisam ser tratadas como copilotos, uma vez que no estágio atual, outputs equivocados e "alucinações" tendem a ser um complicador na sua utilização. As respostas fornecidas por essas ferramentas precisam ser calibradas por um especialista da área, ou seja, se utilizamos um chatbot como o GPT 3.5 para gerar informações sobre o Sistema Único de Saúde por exemplo, será necessário que um ser humano possa validar o que é gerado, sob pena de produzir informações inverídicas e que podem comprometer a saúde pública. As empresas que atualmente desenvolvem aplicações similares com uso de IA, devem ter cautela a esse respeito.
É preciso saber fazer a pergunta (prompt) para se obter uma resposta possivelmente satisfatória. Esse ponto significa uma mudança interessante não apenas para o momento atual (infante em relação ao uso de aplicações de chats treinados de forma supervisionada). Todo um modelo educacional que busca aferir se um estudante “sabe” a resposta certa (modelo de educação enciclopédica ou livresca) já começa a ruir. Nos últimos anos no Brasil já se pensa em trabalhar um currículo escolar por competências e habilidades (o saber fazer) o que já é um avanço em relação ao modelo escolar fabril do século XIX.
Já com a chegada da internet a informação que antes era escassa (século XIX e boa parte do XX) passou a ser abundante. O “filtro” dessa informação, ou seja, sobre se ela é cientificamente válida, passou a ser o ponto chave já no início do século XXI. Com o advento das ferramentas generativas esse filtro aumentou bastante de tamanho. Estamos inundados de informação e agora não é mais preciso saber nadar, é preciso aprender a “respirar” debaixo d’água! E os educadores que não se enganem: é impossível impedir que estudantes utilizem essas ferramentas. A adaptação é algo indiscutível.
Por se tratar de um modelo probabilístico, as respostas em geral caem no “lugar comum”, tendo como output uma resposta em geral carregada de clichês. Paulo Silveira foi muito preciso nessa reflexão. Isso é ao mesmo tempo a força e a fraqueza do atual modelo (em especial do chatGPT). Para pessoas leigas, receber uma reposta eloquente sobre uma área que não dominam pode ser além de confortável, verídico. É um principio da inocência que nos acompanha em todos os lugares porque não somos capazes de saber de tudo (e nem devemos). Porém podemos nos tornar capazes de saber que não sabemos e isso nos traz muitas possibilidades, visto que, estar preparado para fazer perguntas (adequadas), é uma habilidade que será definidora da nossa realidade nos próximos anos.
Link para uma matéria sobre escolas em Nova Iorque que proibiram o uso do chatGPT: