ChatGPT: inteligência artificial bate à porta da escola. E agora?
Saiba como funciona o ChatGPT, quais as possibilidades de uso e os cuidados a serem tomados por educadores, escolas e universidades
por Vinícius de Oliveira 30 de janeiro de 2023
Atualizado em 01 de fevereiro de 2023
Na volta às aulas de 2023, a educação vai encontrar uma nova tecnologia para decidir como, quando e por que usar. Trata-se do ChatGPT, um sistema baseado em IA (inteligência artificial) que gera conversas a partir de perguntas e tópicos sugeridos pelo usuário.
O acesso ao ChatGPT é aberto, o que possibilita que estudantes o utilizem para resolver exercícios dos mais variados temas, além de redigir (com erros) a redação para próxima aula ou mesmo um trabalho acadêmico mais aprofundado. O Porvir conversou com três especialistas para explicar, de uma maneira acessível, o que é o ChatGPT, quais as possibilidades de uso e os cuidados a serem tomados enquanto a educação tenta entender o seu impacto.
Como o ChatGPT organiza as informações? Como escolas e universidades podem reagir? Existe uma maneira de identificar textos criados com o ChatGPT? Separamos essas perguntas em tópicos que você pode ler abaixo:
O que é o ChatGPT?
O ChatGPT é um chatbot (programa de computador que tenta simular uma conversa “natural” ao interagir com o usuário) desenvolvido pela empresa OpenAi, com sede nos Estados Unidos. Lançado no final de novembro de 2022, é possível de ser usado gratuitamente (em janeiro, a OpenAi lançou um plano pago de US$ 42 que promete respostas mais rápidas e acesso antecipado a novas funcionalidades).
Diogo Cortiz, professor de tecnologia da PUC-SP (Pontifícia Universidade Católica de São Paulo) comenta que o ChatGPT é uma inteligência artificial que leu muitos textos e consegue representar palavras, bem como a relação entre elas, de uma forma estatística e matemática.
E o que o ChatGPT traz de novidade?
Walquíria Castelo Branco, consultora educacional e pesquisadora na área de tecnologia, lembra que sistemas baseados em inteligência artificial já estão presentes em nossas vidas de diferentes formas, como na hora de obter crédito para a compra de um imóvel ou um carro. Nessas situações, o sistema do banco traça um perfil de risco do cliente e libera um valor a partir de um padrão gerado por uma gama de clientes com as mesmas características. Na medicina, a inteligência artificial também apoia a identificação de tumores ao avaliar padrões de uma enorme quantidade de exames, exemplifica
“Agora, com o ChatGPT, estamos diante de um tipo de inteligência artificial chamada de generativa, que varre a internet em busca de padrões em diferentes tipos de conteúdo e assuntos”, diz Walquíria. “E deixar de ser específico e passar a ser generativo quer dizer que a inteligência artificial não só reproduz, como é capaz de criar coisas novas”.
Cuidados com o conteúdo gerado pelo ChatGPT
Walquíria alerta: por mais que as respostas do ChatGPT sejam em tom de conversa estruturada, ainda existem erros. É papel do professor sempre reforçar a necessidade de verificar referências – diferentemente do Google, que separa resultados em uma infinidade de links, no ChatGPT a resposta é apresentada em uma narrativa, que pode ou não conter fontes (o usuário pode explicitar essa opção ao fazer a pergunta).
A OpenAi, quando abriu acesso ao ChatGPT, alertou que os resultados são baseados em dados atualizados até 2021, o que amplia a necessidade de verificação de informações cujo contexto tenha sido revisto ou se desenvolvido desde então.
Como o ChatGPT pode ser usado na preparação de aulas?
Dora Kauffman, professora do programa de TIDD (Tecnologias da Inteligência e Design Digital) da PUC-SP (Pontifícia Universidade Católica de São Paulo) e autora de vários livros, entre eles “A inteligência artificial irá suplantar a inteligência humana?” e “Desmistificando a inteligência artificial”, afirma que ainda é difícil avaliar o benefício da adoção do ChatGPT para o planejamento de aulas, dada a diversidade de maneiras para realizar esta tarefa. Ela cita alguns exemplos:
a) criar questionários para testar a compreensão dos alunos sobre determinado tópico;
b) gerar tarefas diferenciadas, ou seja, personalizadas ao perfil de cada aluno;
c) produzir exemplos de respostas de referência às tarefas propostas aos alunos;
d) gerar questionário de múltipla escolha para avaliar a compreensão dos alunos;
e) criar plano de aula com base na realidade de cada classe;
f) criar recursos visuais como imagens, pôsteres e/ou vídeos ilustrativos dos conteúdos a serem abordados.
Como em outros contextos envolvendo o uso de tecnologias na educação, Dora defende que o ChatGPT deve ser encarado como auxiliar do professor e não como um substituto. “Cabe ao professor validar os resultados gerados pela tecnologia antes de aplicá-los efetivamente, evitando, dada a aparente consistência das respostas do ChatGPT, tomá-las como precisas e verdadeiras.”
Escolas e universidades diante do uso do ChatGPT por estudantes
Da mesma forma que acontece com Google e (já aconteceu com a adoção de calculadoras, por exemplo), a adoção ou a proibição do ChatGPT em escolas ou universidades tem a ver com a visão de educação e como se ensina.
Dora afirma que é cedo para opiniões definitivas, mas “com o avanço da inteligência artificial é mandatório reinventar o ensino, a lógica e as metodologias de aprendizado”. Para ela, o caso de Nova York, que proibiu o uso do ChatGPT nas escolas, foi “precipitado”. “Precisamos experimentar essa tecnologia, identificar o seu potencial para colaborar e compor com metodologias inovadoras. O ChatGPT pode ser um bom parceiro do professor”, afirma.
Já no âmbito acadêmico a cisão parece ainda maior. A professora explica que existe uma preocupação com a produção de artigos falsos. Um grupo de pesquisadores da Northwestern University, em Chicago (Estados Unidos), usou o ChatGPT para gerar resumos de artigos científicos na área médica com base em uma seleção prévia de artigos publicados em revistas especializadas. Os pesquisadores submeteram os “resumos artificiais” a sistemas de detecção de plágio, obtendo pontuação média de originalidade de 100% – ou seja, não foi detectado plágio.
Em paralelo, os mesmos resumos artificiais foram submetidos à apreciação de pesquisadores, e eles concluíram que 86% dos resumos eram genuínos. “Esses resultados, se forem comprovados por outros testes, são preocupantes, podem ter impacto relevante principalmente em áreas sensíveis como na saúde (informações falsas de pesquisa podem colocar em risco os pacientes). É premente que as universidades atualizem seus comitês de ética (visivelmente já obsoletos em relação a IA mundo afora), garantindo que sejam identificados e erradicados relatórios e/ou artigos de pesquisa gerados por inteligência artificial”, afirma Dora.
Esse debate concerne, igualmente, aos editores de periódicos científicos. O ChatGPT, como todos os sistemas atuais de IA, não pode ser considerado “agente moral”, significando que não é responsável pelo conteúdo nem pelas suas consequências. O autor de uma publicação acadêmica assume integralmente a responsabilidade legal, o que exclui autores maquínicos. A polêmica já está instalada porque alguns pesquisadores estão enviando artigos para publicação indicando coautoria com o ChatGPT.
O professor Diogo traz outra camada a essa discussão: a necessidade de uso crítico da tecnologia. Neste sentido, proibir o uso não faria sentido. “É deixar o aluno utilizar essa ferramenta para entender como ela funciona e qual seu impacto. Construir a partir disso pode ser uma habilidade necessária para o futuro”, argumenta.
➡️ 10 fatos sobre inteligência artificial no ensino superior
É possível detectar textos gerados pelo ChatGPT?
Essa é uma resposta difícil, por enquanto. Segundo Diogo, já existe uma outra ferramenta que é o ChatGPT Zero, desenvolvida por pesquisadores e tenta identificar se um texto foi gerado ou não por inteligência artificial, só que isso ainda é muito difícil.
“Por exemplo, um aluno pode usar o ChatGPT para gerar uma resposta, um ensaio, e depois fazer pequenas alterações. Isso já inviabiliza a detecção e é algo muito sensível. Não existe nenhuma ferramenta ainda que nos auxilie a combater isso, e talvez não tenha. É um novo mundo a ser desbravado. Vamos ter muita dificuldade para detectar se um texto foi escrito por uma inteligência artificial ou por um humano”, afirma.
Em 31 de janeiro, a OpenAi, desenvolvedora do ChatGPT, anunciou uma ferramenta para identificar conteúdos gerados por inteligência artificial. Só que a própria empresa admite que o “dedo duro” ainda não é confiável. Para conteúdos em inglês, foram detectados apenas 26% dos textos feitos por IA. Houve ainda 9% feitos por humanos classificados erradamente como feitos por máquina. A empresa disse que tais dados representam um avanço em relação a versões anteriores, porém, como a situação mostra, ainda é preciso cuidado e esforço para um uso ético.
➡️ 8 perguntas e respostas sobre a LGPD na educação
Atualizado em 01 de fevereiro de 2023