ChatGPT não frita cérebros — quem erra é a academia
Divulgação apressada, amostra pequena e uso de IA na própria análise levantam dúvidas sobre conclusões que associam modelos de linguagem a prejuízos cognitivos.
Bastou um estudo frágil do MIT para a imprensa decretar riscos inexistentes, ignorando falhas graves na pesquisa.
Um estudo controverso do MIT, divulgado em junho de 2025 e ainda sem revisão por pares, levantou a hipótese de que o uso do ChatGPT poderia causar “dano cerebral”. A pesquisa foi rapidamente adotada por veículos de imprensa como prova de prejuízos cognitivos, mas a análise detalhada indica que o problema está menos na ferramenta de IA e mais em falhas estruturais das universidades americanas.
O rascunho do estudo avaliou o uso de modelos de linguagem e funções cerebrais em um grupo reduzido de participantes (N=54). Apesar da repercussão, os dados apresentam limitações significativas: amostra pequena, viés dos próprios pesquisadores contrários a LLMs e falta de relevância prática, já que os estudantes envolvidos não tinham interesse real na qualidade dos ensaios produzidos. Nesse contexto, os usuários de IA naturalmente transferiram parte do esforço cognitivo.
As medições com EEG foram realizadas apenas durante as sessões de escrita, sem observar efeitos duradouros na cognição ou motivação. Curiosamente, o estudo mostrou resultados semelhantes com o uso do Google, mas sem gerar a mesma comoção pública. Além disso, a própria equipe de pesquisa recorreu a ferramentas de IA na análise dos dados.
Especialistas ressaltam que a chamada “transferência cognitiva” em tarefas complexas não implica perda de capacidade, sobretudo em atividades pouco valorizadas pelos estudantes. O fascínio público por imagens cerebrais, somado a um jornalismo científico sensacionalista, ajudou a inflar interpretações equivocadas.
No fim, a polêmica diz mais sobre a pressa das universidades e a fragilidade dos padrões acadêmicos do que sobre o ChatGPT. A narrativa de que a IA “danifica cérebros” pode, por si só, gerar desconfiança e prejudicar a forma como a sociedade encara novas tecnologias.