Nas universidades dos EUA está a chegar uma nova vaga de ferramentas de IA. Enquanto muitos estudantes recorrem a chatbots para obter respostas prontas para os trabalhos, um sistema recente segue a direcção oposta: recusa-se a entregar soluções directas e obriga quem aprende a raciocinar, passo a passo.
Como um método antigo se tornou o treinador-chefe de IA
Uma equipa de investigação da University of Wisconsin–La Crosse criou um chatbot com base num filósofo da Antiguidade. Em vez de vídeos explicativos ou resoluções-modelo, a ferramenta apoia-se num guião de perguntas inspirado no método socrático - uma espécie de «parteira» das ideias.
Um cenário típico: se um estudante perguntar como se calcula a taxa de crescimento do Produto Interno Bruto, a IA não devolve a fórmula. Em vez disso, começa com perguntas aparentemente simples:
- O que é que o Produto Interno Bruto mede, exactamente?
- Que grandezas estás a comparar quando falas em crescimento?
- Em que período de tempo estás a observar a mudança?
Resposta após resposta, o chatbot vai aproximando o estudante do resultado, sem nunca antecipar o passo final.
O núcleo do sistema: nada de conhecimento mastigado; apenas perguntas insistentes, até a compreensão surgir por iniciativa própria.
O sistema foi treinado com transcrições completas das aulas de Macroeconomia da universidade. A IA só pode trabalhar com esse material e não tem acesso à Internet. Assim, o conteúdo mantém-se colado ao currículo oficial e evita-se tanto a entrada de fontes aleatórias como o “meio conhecimento” encontrado online.
O que acontece quando a IA é impedida de dar respostas
Os investigadores quiseram perceber como este tipo de ajuda “irritante” influencia o desempenho em testes. Na primavera de 2025, dividiram 140 estudantes de uma cadeira de Macroeconomia em quatro grupos:
| Grupo | Forma de trabalho |
|---|---|
| 1 | Sozinho com o chatbot de perguntas |
| 2 | Apenas trabalho de grupo clássico, sem IA |
| 3 | Primeiro trabalhar com o chatbot, depois discutir em grupo |
| 4 | Grupo de controlo, sem apoio especial |
A análise, publicada num Working Paper na SSRN, revela diferenças claras. O ponto mais interessante: o que determina o resultado não é só usar IA, mas a forma como ela é usada.
Quem questiona activamente e pensa em conjunto melhora de forma evidente. Quem fica passivo a ser “alimentado” pela IA fica para trás.
Utilizadores activos sobem; utilizadores passivos caem
O melhor desempenho apareceu no grupo misto: primeiro trabalho com a IA e, a seguir, discussão em equipa. No terceiro teste, os resultados ficaram, em média, 12 pontos acima do grupo de controlo - um avanço considerável para um único semestre.
O oposto aconteceu com estudantes que se habituaram a respostas fáceis e encararam a ferramenta como gerador de soluções. Quando essa muleta deixou de estar disponível num exame posterior, as notas desceram, em média, 8 pontos.
Os autores descrevem o efeito como uma «muleta cognitiva»: quem resolve tudo com um clique deixa de treinar a própria capacidade de resolver problemas. Quando a ajuda desaparece de repente, a lacuna torna-se evidente.
Erros como gatilho para novas perguntas
Um detalhe marcante do sistema é a forma como lida com enganos. O chatbot não corrige respostas erradas de modo frontal; usa-as como ponto de partida para a ronda seguinte de questões.
Se um estudante, por exemplo, confundir o PIB real com o PIB nominal, não recebe uma “resposta a vermelho”. Em vez disso, a IA abre um novo ciclo:
- O que descreve um índice de preços?
- Como é que esse índice muda ao longo do tempo?
- Que papel tem o nível de preços quando se comparam crescimentos?
O mesmo mecanismo aplica-se a temas mais exigentes, como a inflação. Se a resposta mostrar que não estão claros os vínculos entre massa monetária, velocidade de circulação e nível de preços, surgem três ou quatro perguntas de seguimento, bem direccionadas. O objectivo é que o estudante identifique sozinho qual a peça do raciocínio que está fora do lugar.
A IA não acende uma luz verde ou vermelha - limita-se a pôr um espelho à frente e obriga à auto-correcção.
O que ganha a combinação com trabalho de grupo
O modelo mais eficaz foi aquele em que a IA serviu apenas como primeiro passo. Os estudantes começavam por trabalhar sozinhos com o chatbot e tinham de se orientar individualmente através das perguntas. Depois, reuniam-se em pequenos grupos e expunham o seu percurso de pensamento.
Esta sequência cria vários efeitos de aprendizagem:
- Cada pessoa chega ao grupo com um caminho de resolução próprio.
- As contradições tornam-se rapidamente visíveis e são debatidas.
- Conceitos e fórmulas fixam-se melhor porque têm de ser explicados por palavras próprias.
- Estudantes mais tímidos ganham confiança com o trabalho prévio com a IA e contribuem mais facilmente.
Os investigadores apontam para trabalhos de Harvard que já tinham mostrado que perguntas guiadas consolidam conhecimento a longo prazo melhor do que simplesmente “atirar” informação. O novo estudo reforça essa ideia e indica como o efeito se intensifica quando existe uma componente social.
Porque é que esta IA funciona de forma tão diferente do ChatGPT e afins
Modelos de linguagem como o ChatGPT tendem a responder de forma directa. É isso que os torna úteis - e, ao mesmo tempo, problemáticos em contexto educativo. Muitos estudantes obtêm frases para ensaios, passos de cálculo para exercícios ou soluções completas de programação sem realmente processarem a matéria.
Este sistema vira a lógica do avesso. Principais características:
- Nada de soluções prontas; apenas perguntas de retorno
- Limitação ao conteúdo da própria unidade curricular
- Os erros não são “apagados”; são aproveitados de forma produtiva
- O foco é a compreensão, não a velocidade
Para as universidades, isto abre uma oportunidade: integrar IA nas cadeiras sem receio de que os trabalhos se tornem um exercício de copiar e colar. Em vez disso, as ferramentas podem funcionar como parceiro de treino para pensamento estruturado.
Oportunidades e riscos no quotidiano do ensino superior
Ainda assim, é um equilíbrio delicado. Se o chatbot for demasiado rígido e frustrante, a motivação desaparece depressa. Se for brando e deixar escapar meias soluções, o sistema volta a deslizar para o papel de máquina de respostas.
Mesmo assim, o estudo sugere que algumas regras claras trazem ganhos substanciais:
- A IA nunca deve ser a única instância: precisa de aulas presenciais e de troca entre pessoas.
- Os docentes devem tornar o uso transparente - o que é permitido e o que não é?
- As tarefas devem ser desenhadas de modo a que copiar não compense.
Ao mesmo tempo, surge a questão da equidade: se parte dos estudantes usar sistemas rígidos baseados em perguntas e outros recorrerem a chatbots poderosos e “abertos”, criam-se rapidamente condições desiguais. Por isso, algumas universidades discutem disponibilizar tutores de IA de forma centralizada e impor limites mais apertados a bots de resposta livre durante períodos de avaliação.
Como levar o conceito a outras disciplinas
A Macroeconomia encaixa bem nesta lógica de etapas, porque conceitos como inflação, crescimento ou produtividade se encadeiam de forma lógica. Ainda assim, o princípio pode ser aplicado de forma muito mais ampla:
- Matemática: derivar provas passo a passo em vez de receber caminhos de resolução prontos.
- Informática: perguntar por estruturas de dados e algoritmos antes de gerar código.
- Direito: verificar que elementos do tipo legal estão preenchidos antes de apresentar um resultado.
- Medicina: recolher sintomas e explorar diagnósticos diferenciais sem avançar logo para um diagnóstico.
O elemento decisivo será a rapidez com que os docentes conseguem criar os seus próprios conjuntos de perguntas. Quanto mais simples for carregar e controlar apontamentos de aulas dentro destes sistemas, mais realista se torna uma adopção ampla - também noutras universidades.
No fundo, fica uma ideia simples, embora desconfortável: a IA não substitui o pensar; no máximo, provoca-o. A questão já não é se os estudantes usam ajudas digitais, mas para quê - como automatismo de respostas ou como sparring persistente para o próprio raciocínio.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário