Saltar para o conteúdo

IA com método socrático nas universidades dos EUA: o chatbot da University of Wisconsin–La Crosse contra o estilo ChatGPT

Três jovens sentados à mesa a discutir ideias com computador portátil aberto e desenhos numa folha e caderno.

Nas universidades dos EUA está a chegar uma nova vaga de ferramentas de IA. Enquanto muitos estudantes recorrem a chatbots para obter respostas prontas para os trabalhos, um sistema recente segue a direcção oposta: recusa-se a entregar soluções directas e obriga quem aprende a raciocinar, passo a passo.

Como um método antigo se tornou o treinador-chefe de IA

Uma equipa de investigação da University of Wisconsin–La Crosse criou um chatbot com base num filósofo da Antiguidade. Em vez de vídeos explicativos ou resoluções-modelo, a ferramenta apoia-se num guião de perguntas inspirado no método socrático - uma espécie de «parteira» das ideias.

Um cenário típico: se um estudante perguntar como se calcula a taxa de crescimento do Produto Interno Bruto, a IA não devolve a fórmula. Em vez disso, começa com perguntas aparentemente simples:

  • O que é que o Produto Interno Bruto mede, exactamente?
  • Que grandezas estás a comparar quando falas em crescimento?
  • Em que período de tempo estás a observar a mudança?

Resposta após resposta, o chatbot vai aproximando o estudante do resultado, sem nunca antecipar o passo final.

O núcleo do sistema: nada de conhecimento mastigado; apenas perguntas insistentes, até a compreensão surgir por iniciativa própria.

O sistema foi treinado com transcrições completas das aulas de Macroeconomia da universidade. A IA só pode trabalhar com esse material e não tem acesso à Internet. Assim, o conteúdo mantém-se colado ao currículo oficial e evita-se tanto a entrada de fontes aleatórias como o “meio conhecimento” encontrado online.

O que acontece quando a IA é impedida de dar respostas

Os investigadores quiseram perceber como este tipo de ajuda “irritante” influencia o desempenho em testes. Na primavera de 2025, dividiram 140 estudantes de uma cadeira de Macroeconomia em quatro grupos:

Grupo Forma de trabalho
1 Sozinho com o chatbot de perguntas
2 Apenas trabalho de grupo clássico, sem IA
3 Primeiro trabalhar com o chatbot, depois discutir em grupo
4 Grupo de controlo, sem apoio especial

A análise, publicada num Working Paper na SSRN, revela diferenças claras. O ponto mais interessante: o que determina o resultado não é só usar IA, mas a forma como ela é usada.

Quem questiona activamente e pensa em conjunto melhora de forma evidente. Quem fica passivo a ser “alimentado” pela IA fica para trás.

Utilizadores activos sobem; utilizadores passivos caem

O melhor desempenho apareceu no grupo misto: primeiro trabalho com a IA e, a seguir, discussão em equipa. No terceiro teste, os resultados ficaram, em média, 12 pontos acima do grupo de controlo - um avanço considerável para um único semestre.

O oposto aconteceu com estudantes que se habituaram a respostas fáceis e encararam a ferramenta como gerador de soluções. Quando essa muleta deixou de estar disponível num exame posterior, as notas desceram, em média, 8 pontos.

Os autores descrevem o efeito como uma «muleta cognitiva»: quem resolve tudo com um clique deixa de treinar a própria capacidade de resolver problemas. Quando a ajuda desaparece de repente, a lacuna torna-se evidente.

Erros como gatilho para novas perguntas

Um detalhe marcante do sistema é a forma como lida com enganos. O chatbot não corrige respostas erradas de modo frontal; usa-as como ponto de partida para a ronda seguinte de questões.

Se um estudante, por exemplo, confundir o PIB real com o PIB nominal, não recebe uma “resposta a vermelho”. Em vez disso, a IA abre um novo ciclo:

  • O que descreve um índice de preços?
  • Como é que esse índice muda ao longo do tempo?
  • Que papel tem o nível de preços quando se comparam crescimentos?

O mesmo mecanismo aplica-se a temas mais exigentes, como a inflação. Se a resposta mostrar que não estão claros os vínculos entre massa monetária, velocidade de circulação e nível de preços, surgem três ou quatro perguntas de seguimento, bem direccionadas. O objectivo é que o estudante identifique sozinho qual a peça do raciocínio que está fora do lugar.

A IA não acende uma luz verde ou vermelha - limita-se a pôr um espelho à frente e obriga à auto-correcção.

O que ganha a combinação com trabalho de grupo

O modelo mais eficaz foi aquele em que a IA serviu apenas como primeiro passo. Os estudantes começavam por trabalhar sozinhos com o chatbot e tinham de se orientar individualmente através das perguntas. Depois, reuniam-se em pequenos grupos e expunham o seu percurso de pensamento.

Esta sequência cria vários efeitos de aprendizagem:

  • Cada pessoa chega ao grupo com um caminho de resolução próprio.
  • As contradições tornam-se rapidamente visíveis e são debatidas.
  • Conceitos e fórmulas fixam-se melhor porque têm de ser explicados por palavras próprias.
  • Estudantes mais tímidos ganham confiança com o trabalho prévio com a IA e contribuem mais facilmente.

Os investigadores apontam para trabalhos de Harvard que já tinham mostrado que perguntas guiadas consolidam conhecimento a longo prazo melhor do que simplesmente “atirar” informação. O novo estudo reforça essa ideia e indica como o efeito se intensifica quando existe uma componente social.

Porque é que esta IA funciona de forma tão diferente do ChatGPT e afins

Modelos de linguagem como o ChatGPT tendem a responder de forma directa. É isso que os torna úteis - e, ao mesmo tempo, problemáticos em contexto educativo. Muitos estudantes obtêm frases para ensaios, passos de cálculo para exercícios ou soluções completas de programação sem realmente processarem a matéria.

Este sistema vira a lógica do avesso. Principais características:

  • Nada de soluções prontas; apenas perguntas de retorno
  • Limitação ao conteúdo da própria unidade curricular
  • Os erros não são “apagados”; são aproveitados de forma produtiva
  • O foco é a compreensão, não a velocidade

Para as universidades, isto abre uma oportunidade: integrar IA nas cadeiras sem receio de que os trabalhos se tornem um exercício de copiar e colar. Em vez disso, as ferramentas podem funcionar como parceiro de treino para pensamento estruturado.

Oportunidades e riscos no quotidiano do ensino superior

Ainda assim, é um equilíbrio delicado. Se o chatbot for demasiado rígido e frustrante, a motivação desaparece depressa. Se for brando e deixar escapar meias soluções, o sistema volta a deslizar para o papel de máquina de respostas.

Mesmo assim, o estudo sugere que algumas regras claras trazem ganhos substanciais:

  • A IA nunca deve ser a única instância: precisa de aulas presenciais e de troca entre pessoas.
  • Os docentes devem tornar o uso transparente - o que é permitido e o que não é?
  • As tarefas devem ser desenhadas de modo a que copiar não compense.

Ao mesmo tempo, surge a questão da equidade: se parte dos estudantes usar sistemas rígidos baseados em perguntas e outros recorrerem a chatbots poderosos e “abertos”, criam-se rapidamente condições desiguais. Por isso, algumas universidades discutem disponibilizar tutores de IA de forma centralizada e impor limites mais apertados a bots de resposta livre durante períodos de avaliação.

Como levar o conceito a outras disciplinas

A Macroeconomia encaixa bem nesta lógica de etapas, porque conceitos como inflação, crescimento ou produtividade se encadeiam de forma lógica. Ainda assim, o princípio pode ser aplicado de forma muito mais ampla:

  • Matemática: derivar provas passo a passo em vez de receber caminhos de resolução prontos.
  • Informática: perguntar por estruturas de dados e algoritmos antes de gerar código.
  • Direito: verificar que elementos do tipo legal estão preenchidos antes de apresentar um resultado.
  • Medicina: recolher sintomas e explorar diagnósticos diferenciais sem avançar logo para um diagnóstico.

O elemento decisivo será a rapidez com que os docentes conseguem criar os seus próprios conjuntos de perguntas. Quanto mais simples for carregar e controlar apontamentos de aulas dentro destes sistemas, mais realista se torna uma adopção ampla - também noutras universidades.

No fundo, fica uma ideia simples, embora desconfortável: a IA não substitui o pensar; no máximo, provoca-o. A questão já não é se os estudantes usam ajudas digitais, mas para quê - como automatismo de respostas ou como sparring persistente para o próprio raciocínio.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário