A inteligência artificial só transforma a educação quando é libertadora, diz pesquisador - PORVIR
Dragon Claws/iStockPhoto

Inovações em Educação

A inteligência artificial só transforma a educação quando é libertadora, diz pesquisador

Na Conferência PBL 2025, o pesquisador Michael Rowe (Lincoln University) defendeu uma visão de IA como parceira de pensamento na educação, inspirada em Paulo Freire, e criticou a postura defensiva das instituições por desperdiçarem esse potencial transformador ao priorizar o controle e a conformidade

por Vinícius de Oliveira ilustração relógio 4 de novembro de 2025

A chegada da inteligência artificial (IA) generativa foi inicialmente recebida com otimismo, uma vez que esse tipo de tecnologia oferece recursos capazes de ampliar o protagonismo e a autoria dos estudantes, além de facilitar a realização de tarefas complexas. Na Conferência Internacional PBL 2025, realizada na última semana na PUC Minas, em Belo Horizonte (MG), pela PANPBL (Associação de Aprendizagem Baseada em Problemas e Metodologias Ativas de Aprendizagem), o fisioterapeuta sul-africano Michael Rowe, professor associado e diretor de inovação digital da Escola de Ciências da Saúde da Universidade de Lincoln, no Reino Unido, argumentou que as medidas para regular o uso dessa nova tecnologia podem ter ido longe demais.

A partir dessa provocação, Michael apresentou um argumento principal: as reações institucionais à IA revelam um desalinhamento profundo entre o que as instituições dizem valorizar e aquilo que, de fato, estruturam para avaliar. Diante desse cenário, ele defende mudar essa estratégia e apostar na aprendizagem baseada em problemas (PBL, na sigla em inglês), que por princípio valoriza o processo, a colaboração e o protagonismo estudantil. Ao integrar IA e PBL com intencionalidade pedagógica, segundo o professor, é possível democratizar a construção do conhecimento e aproximar a educação do que Paulo Freire chamaria de prática da liberdade.

📳 Inscreva-se no canal do Porvir no WhatsApp para receber nossas novidades

Desde o início de sua fala no evento reuniu profissionais de diversas áreas, entre elas engenharias, ciências sociais, saúde e educação básica, o palestrante recorreu às ideias do patrono da educação brasileira. Ele afirmou que a maneira como o educador compreendia opressão e autonomia, e sua defesa de uma educação que reconhece os estudantes como sujeitos de história, tiveram enorme influência em sua trajetória. Seu esforço, explicou, é entrelaçar essas referências com a prática cotidiana, buscando caminhos mais libertadores na formação dos estudantes. 

O impossível ficou apenas difícil: as 3 premissas de Rowe

Michael parte de três suposições que fundamentam sua crítica às respostas institucionais diante da IA. A primeira considera que a tecnologia tornou possível o que antes era extremamente difícil: escrever um ensaio, reescrever um relatório, sintetizar dados, gerar exemplos, traduzir e comparar documentos. Muitos, segundo ele, interpretam isso como um atalho ou uma forma de trapaça. “Mas o ponto não é que o fácil ficou mais fácil, é que o impossível ficou apenas difícil.” Se, antes, certos produtos estavam fora do alcance de grande parte dos estudantes, agora eles estão disponíveis e podem ser usados a serviço da aprendizagem.

A segunda suposição é de ordem educacional: aquilo que o sistema educacional mede influencia diretamente o comportamento dos estudantes. “Se avaliamos a quantidade de palavras, eles escrevem mais. Se valorizamos a frequência, eles comparecem. Se priorizamos o pensamento crítico, eles aprendem a argumentar”, afirma.

O terceiro argumento parte da ideia de que os estudantes agem de forma racional: ao perceberem o descompasso entre os valores declarados pelas instituições e os critérios realmente aplicados, passam a otimizar o que de fato é exigido, e, com o apoio da IA, fazem isso de maneira ainda mais rápida e eficiente.

Michael Rowe fala ao microfone diante de telão com citação de Henry Giroux sobre educação
Arquivo Pessoal/Michael Rowe Michael Rowe durante a Conferência PAN-PBL, na PUC Minas, em Belo Horizonte, com uma citação crítica de Henry Giroux projetada no telão: ‘Muitas salas de aula, em todos os níveis de escolaridade, agora se assemelham a uma “zona morta”, onde qualquer vestígio de pensamento crítico, autorreflexão e imaginação migra rapidamente para espaços fora da escola’.

De ferramenta a interlocutora: o valor da relação com a máquina

Em sua palestra, o professor contou que essas reflexões começaram logo após o lançamento do ChatGPT, quando perguntou à ferramenta o que era se sentir sozinho e recebeu uma resposta de forte apelo emocional. “Eu sei que o modelo não tem subjetividade”, relatou, “mas a sensação de estar em relação com alguma coisa estava ali”. Essa experiência o levou a pensar que talvez devêssemos tratar a IA não apenas como instrumento, mas como uma interlocutora capaz de devolver ideias, estruturar raciocínios e provocar contrapontos. Para ele, essa estratégia abre novas possibilidades de aprender com as máquinas.

Ele também lembrou que esse debate antecede a chegada da inteligência artificial generativa. Henry Giroux, estadunidense considerado um dos mais influentes pensadores da educação crítica contemporânea, já dizia, há mais de uma década, que muitas salas de aula se pareciam com zonas mortas, onde o pensamento crítico e a imaginação eram expulsos. Justin Reich, outro pesquisador também dos Estados Unidos, demonstrou que as escolas tendem a domesticar as tecnologias: em vez de permitir que a internet amplie o contato com o mundo, criam ambientes virtuais fechados que reproduzem a lógica tradicional de controle.

Michael citou ainda as pesquisadoras Diana Laurillard (Reino Unido) e Donella Meadows (Estados Unidos), para lembrar que “o propósito de um sistema é o que ele faz, não o que declara fazer”. Assim, se uma universidade afirma formar sujeitos críticos, mas suas engrenagens premiam a conformidade, o propósito real não é a crítica, é a obediência. Quando surge uma tecnologia capaz de promover redes de aprendizagem mais abertas e colaborativas, tendemos a encaixá-la novamente dentro do mesmo modelo de controle.

Relacionadas

E-book gratuito: IA para professores explicada de forma simples

ACESSAR

10 ferramentas de IA que facilitam a vida do professor

ACESSAR

Por que é preciso educar para a inteligência artificial?

ACESSAR

Por que a reação institucional à IA é frágil

Quando a inteligência artificial chega ao ambiente educacional, a reação institucional costuma ser defensiva. Multiplicam-se regulamentos sobre integridade acadêmica, detectores automáticos e exigências de “confissão” do uso de IA. “É como se disséssemos: pode usar, mas apenas do jeito que já controlamos. Só que isso é logicamente frágil”, afirmou Michael.

Ele fez uma analogia: ninguém exige que um aluno cite uma conversa inspiradora que teve há meses, mas pede-se que ele registre o uso da IA. Isso revela menos uma preocupação com autoria e mais uma tentativa de reafirmar a autoridade institucional num momento em que os estudantes têm acesso direto a fontes de conhecimento e tutoria 24 horas por dia. Para o pesquisador, a IA apenas tornou evidente algo que já acontecia: muitas tarefas escolares podiam ser cumpridas sem engajamento intelectual real.

É nesse ponto que a aprendizagem baseada em problemas oferece um caminho alternativo, por reconhecer o estudante como sujeito ativo, alguém capaz de discordar, propor soluções e mobilizar diferentes fontes de informação. No PBL, o foco se desloca de “responder ao professor” para “investigar um problema autêntico em colaboração”. Em um ambiente assim, a IA pode ser incorporada como mais um participante da investigação.

Em vez de perguntar “Você usou IA?”, os docentes podem questionar: “Como a IA ajudou você a compreender melhor o problema?”, “Que alternativas ela apresentou?”, “Quais foram descartadas e por quê?”. A avaliação passa, então, a valorizar o processo e não apenas o produto final, reduzindo o incentivo à trapaça. Boa parte dessas discussões, adaptadas ao contexto brasileiro, está presente no Guia “Educação Mão na Massa”, do Porvir.

A soberania de contexto e o protagonismo do estudante

Na sequência, o pesquisador destacou a importância do contexto para que a inteligência artificial seja bem utilizada. “Modelos de linguagem podem ser mais rápidos, mais eruditos e até mais morais do que nós em certas tarefas, mas há algo que eles não têm: a nossa história, a nossa rede de relações, o nosso território, o nosso desejo. É isso que chamo de soberania de contexto: o poder de o sujeito trazer para a interação aquilo que só ele possui e que dá sentido ao conhecimento.”

Ao usar expressões como “eu sinto que”, “para mim isso é importante porque” ou “na minha escola isso acontece assim”, o usuário oferece pistas que permitem respostas mais ajustadas. Por isso, Michael argumenta que o letramento em IA vai além da elaboração de bons prompts (termo em inglês para texto, comando ou pergunta que você escreve para pedir que o computador ou a inteligência artificial faça algo para comandos de pesquisa). Envolve estruturar o contexto, comunicar a intenção e manter autonomia sobre o que é compartilhado. São os próprios estudantes que definem quais problemas investigar, que conhecimentos construir e como trilhar sua jornada de aprendizagem. Eles não se limitam a escolher entre opções pré-definidas e se tornam protagonistas da própria formação.

Como exemplo, o pesquisador mencionou situações em que estudantes de sua área identificam problemas reais em seus territórios: um idoso que não participa de um tratamento de saúde, uma escola que não envolve as famílias ou uma comunidade com acesso precário a serviços públicos. Com o apoio da IA, esses alunos podem mapear causas, comparar experiências internacionais, localizar especialistas, desenhar intervenções e até prototipar soluções. Assim, não precisam dominar todos os conceitos estatísticos para compreender um artigo científico: a IA pode explicar métodos e localizar pesquisas em diferentes idiomas.

Michael reconhece que essa visão pode causar desconforto em quem encara a formação como uma sequência rígida de pré-requisitos. “Mas é o mundo que já temos. E o PBL é a estrutura que torna isso pedagógico, e não apenas utilitário”, afirmou.

Coragem institucional: o desafio de elevar a complexidade

Para que esse processo formativo aconteça, Michael defende o desenvolvimento do que chama de julgamento avaliativo. Quando quase tudo se torna possível, as perguntas centrais deixam de ser “consigo fazer?” e passam a ser “vale a pena fazer?”, “isso respeita as pessoas envolvidas?”, “isso distribui ou concentra poder?”, “isso tem sentido para o meu projeto de mundo?”. Diante disso, a obsessão institucional com “colar com IA” torna-se um problema menor.

Segundo o pesquisador, estudantes sempre buscarão atalhos. Por isso, cabe aos gestores e educadores criar ambientes em que eles escolham não trapacear. Não por medo, mas porque reconhecem valor na tarefa, percebem a autoria envolvida, entendem a importância do processo e confiam na relação com seus professores.

Ele aponta três caminhos possíveis:

  1. seguir inflacionando notas e mantendo a aparência de normalidade;
  2. retornar a modelos punitivos, com ranqueamentos e penalizações;
  3. ou elevar o nível de complexidade das propostas, com atividades que só podem ser resolvidas com pensamento crítico, criatividade e uso ético da tecnologia.

“A terceira via é a que mais dialoga com PBL e com Freire”, afirmou, “porque convida os estudantes a imaginar: ‘E se o mundo fosse diferente?’, ‘E se o currículo partisse do território?’, ‘E se o atendimento em saúde fosse redesenhado com base na experiência do paciente?’.” A IA, defende, é particularmente útil para prototipar futuros, simular cenários e testar hipóteses.

Em suas aulas, Michael mostra aos estudantes como utiliza a IA em seu próprio trabalho e os ensina a fazer o mesmo, sem medo de estarem trapaceando. Ele explica: “Se você me pedir para fazer algo, pode também pedir isso à IA. Se me pedir feedback sobre um texto, peça também à IA. Mas você nunca me pediria para escrever o seu texto, então também não peça isso à IA.” Essa regra simples, segundo ele, ajuda os alunos a compreender como usar a tecnologia de forma responsável.

“Quando fazemos isso em sala de aula”, resume, “mudamos a narrativa: deixamos de apresentar a IA como ferramenta de trapaça e passamos a vê-la como aliada da aprendizagem.” Mesmo quem não participa de conselhos nacionais de educação, argumenta, pode transformar a percepção da tecnologia ao mostrar aos estudantes o que é uma boa prática.

O que fazer diante deste cenário

O que falta, então? Nesse ponto, o palestrante chama a atenção para a necessidade de coragem institucional. Integrar a IA, argumenta, não é simplesmente adotar uma nova tecnologia, mas repensar relações de poder e práticas educativas. Ao tratá-la apenas como ferramenta, as instituições a subordinam às estruturas tradicionais. “É isso que estamos vendo agora: um esforço para garantir que a IA entre no currículo sem que nada precise mudar no funcionamento das universidades.”

Como alternativa, propõe um modelo de aprendizagem baseada em problemas mediada por IA, em que o uso da tecnologia promove engajamento com o conhecimento, e não apenas desempenho ou obediência a regras. Nesse modelo, as tarefas de avaliação devem contribuir para o bem-estar e a autorrealização dos estudantes, fortalecendo seu protagonismo.

Essa forma de pensar a educação se aproxima diretamente de Paulo Freire: ensinar é um ato de liberdade. O futuro da educação apoiada pela IA, sustenta o pesquisador, não está no controle rígido, mas na criação de condições para que os estudantes tenham autonomia e possam tomar decisões significativas sobre sua aprendizagem. A IA pode, assim, ajudar a criar contextos que favoreçam o protagonismo dos aprendizes, promovam uma aprendizagem autêntica e possibilitem transformações reais.

Ele concluiu sua fala com uma provocação: “Teremos coragem de alinhar nossas práticas ao que dizemos valorizar?” E reforçou: “Ensinar é mover mentes para formar pensadores autônomos, que não se curvam à vontade dos professores.” No entanto, segundo ele, o que se vê hoje é o oposto. “Estamos tentando moldar os estudantes à nossa imagem. E fazemos o mesmo com a inteligência artificial, tentando forçá-la a operar dentro dos limites do nosso controle.”

Mas, ao final, deixou um convite à esperança: “Quando damos oportunidades aos estudantes para usar a IA na resolução de problemas críticos do mundo real, eles são capazes de nos surpreender.”


TAGS

inteligência artificial, metodologias ativas, tecnologia

Cadastre-se para receber notificações
Tipo de notificação
guest

0 Comentários
Comentários dentro do conteúdo
Ver todos comentários
Canal do Porvir no WhatsApp: Receba as notícias mais relevantes sobre educação e inovaçãoEntre agora!