Como incluir equidade no debate sobre inteligência artificial - PORVIR
Crédito: Emily Rand & LOTI / Better Images of AI / AI City / CC-BY 4.0

Inovações em Educação

Como incluir equidade no debate sobre inteligência artificial

Seminário reúne especialistas para discutir as mudanças necessárias para que as plataformas considerem diferentes contextos e sejam guiadas por princípios éticos

por Vinícius de Oliveira ilustração relógio 3 de junho de 2024

Quando se fala em tecnologia na educação, sempre existe o risco de que equidade seja uma palavra que fique apenas no discurso de tomadores de decisão. Escolas e redes, sejam elas públicas ou privadas, estão em diferentes contextos de infraestrutura e formação de professores para o uso pedagógico dessas tecnologias. Além disso, o próprio acesso a recursos digitais também se mostra desigual e o risco diante da chegada de plataformas apoiadas em inteligência artificial é que o presente repita as dificuldades enfrentadas no passado. 

📳 Inscreva-se no canal do Porvir no WhatsApp para receber nossas novidades

Atualmente, os sistemas mais avançados de inteligência artificial, capazes de gerar textos, imagens, músicas e vídeos, estão predominantemente nas mãos de grandes empresas de tecnologia, que desenvolveram tais plataformas com base em dados disponíveis em sua maior parte em inglês e restritos a poucos países. Esse foi o tema do painel “A IA como bem público no combate à desigualdade” durante o seminário “IA em Educação e Cultura: Estratégias para Combater Desigualdades”, promovido pela Fundação Itaú.

Questionada sobre como esses sistemas de inteligência artificial podem fornecer respostas padronizadas, Renata Mielli, coordenadora do CGI.br (Comitê Gestor da Internet do Brasil) e assessora especial do Ministério da Ciência, Tecnologia e Inovação, considera que eles trazem um perigo. Segundo ela, por serem ferramentas de predição estatística, eles organizam palavras e fornecem respostas com base nas perguntas feitas, o que pode limitar a diversidade e a representatividade nos conteúdos gerados.

“Não preciso ir tão longe a ponto de pensar em culturas indígenas. A própria internet, antes mesmo da inteligência artificial, já trouxe o problema da eliminação de culturas, sendo majoritariamente desenvolvida em inglês. O que considero mais grave nessa pasteurização, advinda dos bancos de dados do Norte Global e baseados numa cultura eurocêntrica e norte-americana, é que a relação do usuário com esses modelos de linguagem é praticamente individualizada, é a pessoa com o prompt (comando inserido pelo usuário nas ferramentas de inteligência artificial)”, disse.

O que é equidade? Quais os marcadores sociais que impactam na educação dos brasileiros? Qual a relação desses conceitos com a qualidade na educação? Em “O Futuro se Equilibra”, o podcast do Porvir sobre equidade, essa temática será discutida por meio de histórias reais e conversas com especialistas.

Outro problema, de acordo com Renata, decorre do fato de que usuários tendem a aceitar as respostas fornecidas por esses sistemas como verdadeiras e suficientes, sem buscar complementação. Esse fenômeno não só “pasteuriza a cultura”, mas também “achata o conhecimento”, pois a confiança excessiva nas respostas fornecidas reduz a diversidade e a profundidade das informações acessadas.

Ao comparar com a era pré-internet, quando a televisão oferecia uma comunicação no fluxo de um para muitos e grandes veículos de comunicação definiam o que a sociedade debatia, Renata diz que agora o cenário é outro. “Iniciamos um paradigma de produção de conteúdo de muitos para muitos. Alguns acreditavam, de forma bastante ingênua, que os intermediários iriam desaparecer, mas eles não desapareceram, apenas se complexificaram. O conteúdo continua sendo público, seja nas redes sociais, seja nas plataformas. Com a evolução para os modelos de linguagem (dos novos sistemas apoiados em inteligência artificial), a relação do usuário com o prompt (comando) é muito perigosa”. 

Paulo Blikstein, professor brasileiro da Universidade de Columbia, nos Estados Unidos, vê outro problema relacionado, não só o viés das culturas dominantes, mas também o fato de que a inteligência artificial é uma voz sem emissor e, no fim das contas, o usuário interage com o vazio. “Ou seja, é uma voz que não pode ser responsabilizada pelo que diz. Se a inteligência artificial fala algo errado, quem é responsabilizado? É a OpenAI (empresa desenvolvedora da plataforma ChatGPT) ou quem produziu o dado que alimentou o modelo da OpenAI, ou o engenheiro que aceitou aquele dado para o modelo da OpenAI?”, questionou.

Como ainda não existe um arcabouço jurídico para responsabilizar quem está falando o que a inteligência artificial exibe, empresas ou censuram excessivamente, colocando uma série de filtros para evitar que a inteligência artificial seja violenta, racista, etc., ou liberam tudo, o que torna tais plataformas capazes de dizer as coisas mais horríveis possíveis, segundo Paulo. “Esse tipo de comunicação, com um interlocutor que não existe, que não pode ser responsabilizado e que não tem identidade, viola o protocolo da comunicação humana, onde podemos saber quem está falando e responsabilizar essa pessoa”, descreve. 

Relacionadas

Unesco lança guia para regulamentação do uso de inteligência artificial nas escolas

ACESSAR

‘Professores não podem ser únicos responsáveis por lidar com os vieses de IA’

ACESSAR

Por que é preciso educar para a inteligência artificial?

ACESSAR

Juana Kweitel, vice-presidente do programa global e de iniciativas estratégicas da Luminate, uma ONG internacional que se dedica a questões como democracia, cidadania e liberdade, disse que a sociedade ainda está em tempo de saber quando se está falando com um ser humano e quando não. “Não precisamos aceitar isso e a responsabilização é possível. Além de proteção de dados e direitos autorais, também temos o direito do consumidor e a responsabilidade civil por danos. Há uma empresa por trás que nos está oferecendo um produto e, se esse produto causa danos, devemos poder responsabilizá-la”, afirma.

Na Europa, a ONG apoia disputas judiciais para a responsabilização de plataformas de tecnologia. Segundo ela, é possível promover algo similar no Brasil ao lado de diferentes atores, documentando vozes e danos. “Precisamos de um ecossistema de organizações da sociedade civil junto com as universidades, que estejam produzindo mais vozes, porque hoje, quem mais fala sobre inteligência artificial são as próprias empresas interessadas”, afirmou.

Eduardo Saron, presidente da Fundação Itaú, reforçou o quão importante é o conceito de diversidade para os conjuntos de dados e na construção dos padrões e modelos estatísticos. “Para pensar em diversidade, o ponto fundamental é considerar as múltiplas línguas que o mundo possui. Não podemos ter um chatbot (sistema que simula conversa com o usuário) feito a partir do conteúdo de uma única origem. Como incluímos o sul global nisso? Como incluímos os saberes dos povos que não estão na internet?”, perguntou. 

Para o executivo da Fundação Itaú, outro ponto importante é a transparência na construção desses padrões estatísticos. “É uma grande discussão, tudo muito complexo, mas é necessário que as grandes empresas demonstrem como esses padrões são feitos”, disse. 

É preciso incluir a perspectiva de oferecer conteúdo que possa fazer a pessoa refletir sobre suas perguntas e questionamentos, indo além das suas bolhas

Eduardo Saron, presidente da Fundação Itaú

Como terceiro destaque de sua fala, Eduardo assinalou o quanto a hiper personalização a partir de dados enviesados traz riscos. “Como entregar conteúdo a partir da compreensão e do diálogo real com o indivíduo que está acessando esse conteúdo? É preciso incluir a perspectiva de oferecer conteúdo que possa fazer a pessoa refletir sobre suas perguntas e questionamentos, indo além das suas bolhas”. Para Eduardo, um design ético desse tipo de tecnologia só pode ser constituído com a participação das universidades, que produzem conhecimento público. 

Soluções para o uso de IA com foco em equidade

Diante desse cenário, Renata diz que rivalizar com empresas que possivelmente vão investir trilhões de dólares nos próximos anos em tais sistemas de inteligência artificial é uma tarefa ingrata. “Nós nunca vamos conseguir competir diretamente, mas precisamos traçar caminhos e começar de algum ponto. Estamos anos-luz atrasados não só em termos de modelos de linguagem, mas em toda a cadeia produtiva digital. Nossa dependência tecnológica é histórica e se estende por várias dimensões, e precisamos enfrentar isso como nação”, afirmou.

Nossa dependência tecnológica é histórica e se estende por várias dimensões, e precisamos enfrentar isso como nação

Renata Mielli, coordenadora do CGI.br (Comitê Gestor da Internet do Brasil)

“Devemos começar a desenvolver modelos centrados na língua portuguesa e no espanhol, podendo ser um modelo Iberoamericano. Há tratativas em desenvolvimento pelo governo brasileiro com outros países; a própria Espanha está desenvolvendo um LLM (sistema baseado em grandes conjuntos de dados). Estamos, neste momento, reavaliando a nossa estratégia brasileira de inteligência artificial e desenvolvendo um plano de investimentos, com várias universidades trabalhando em modelos de linguagem em português”, descreveu

“Se conseguirmos desenvolver um bom modelo de linguagem em português que reflita a cultura e a diversidade local, abrangendo cidades de norte a sul do Brasil e sendo alimentado também com referências dos países da América Latina, ele poderá concorrer com o ChatGPT? Talvez não, mas criaremos uma alternativa econômica, social, política e de soberania cultural que pode ser interessante para diversos países”, disse Renata, recusando-se a acreditar que a sociedade deve se resignar às empresas que hoje dominam o setor e que não há nada mais a ser feito.

Paulo Blikstein provocou dizendo que o sentido da discussão sobre IA precisa ser outro. “Nós somos o país de Paulo Freire, de Ubiratan D’Ambrosio, de Léa Fagundes e de José Valente. Quem quer entender de inteligência artificial na educação precisa primeiro estudar os grandes educadores brasileiros e brasileiras e só depois falar com as empresas de tecnologia. É claro que as empresas têm um papel importante, mas o problema é que elas não podem dar o norte da implementação da inteligência artificial em geral ou na educação”. 

“Eu já ouvi muito dizer que, com a inteligência artificial, o professor e o humano continuarão no centro. No entanto, sou cético. Me dê um exemplo de uma área onde grandes empresas de tecnologia entraram e não degradaram o sistema ou precarizaram o trabalho. O Uber coloca o motorista no centro? As big techs precarizaram o jornalismo. O jornalista está no centro hoje? Na música, entretenimento, entrega de comida, não parece que o humano está no centro”. disse. 

O Vale do Silício tem esse discurso de democratização e otimização, mas, na prática, essas empresas operam para disrupção

Paulo Blikstein, professor brasileiro da Universidade de Columbia, nos Estados Unidos

“O Vale do Silício tem esse discurso de democratização e otimização, mas, na prática, essas empresas operam para disrupção, quebrando e reconstruindo coisas, monetizando cada minuto do nosso tempo. Na educação, isso é ainda mais dramático. Podemos acordar um dia no Brasil com professores trabalhando em quartinhos, recebendo salário por cliques, sem diploma ou formação. A escola pode virar uma plataforma digital com dados das crianças armazenados fora do país”.

“Para evitar esse pesadelo, precisamos pensar na transformação digital na educação como um bem público, alinhado com o DNA do nosso país. A educação é o que molda o futuro de um país. Sem deslumbramento tecnológico, precisamos desenhar sistemas coerentes com nosso projeto de país. O professor só continuará no centro se for central no uso da inteligência artificial na educação”.

Entre suas ideias, está o respeito às múltiplas formas de se adotar tecnologias educacionais, que levem em consideração o contexto local. Segundo o professor, os problemas que temos com a inteligência artificial na sociedade são ainda mais expressivos na educação, onde lidamos com crianças e questões de privacidade, dados, saúde mental e ética. Antes de tudo, disse Paulo, é preciso ter consciência das vulnerabilidades dos nossos sistemas públicos de educação.

“Acredito que hoje há um discurso muito popular sobre inteligência artificial na educação, que vamos criar um tutor individual computadorizado para cada aluno. Então, de um dia para o outro, teremos milhões de miniprofessores eletrônicos, sem custo, no celular do aluno, que vão ajudar os alunos mais pobres a aprender sem um grande investimento. Esse tutor personalizado estará sempre com o aluno, entendendo seus erros, fazendo perguntas em linguagem natural e tudo mais. Esse é o discurso que ouvimos muito, mas é um grande equívoco”.

Aqui, o professor da Universidade de Columbia cita uma possível jogada de marketing, pois tais tutores já existem há pelo menos 20 anos. “Não eram generativos, mas eram muito sofisticados também. Várias universidades vêm desenvolvendo esse tipo de tutor há muitos anos, e há muita pesquisa sobre eles. O que essas pesquisas mostram é que os resultados são modestos ou nulos, não são milagrosos”, explica. 

Para serem de fato efetivos, tais recursos dependeriam de boa infraestrutura na escola e de professores humanos acompanhando o processo. “Os ganhos são concentrados em conteúdos mais básicos e não escalam bem. Construir um tutor para o segundo ano de matemática é 100 vezes mais fácil do que para o oitavo ano. Esse tipo de uso da inteligência artificial, que muitos acham que será o grande salto, não vai acontecer”. 

Aqui, ele contrapõe Sal Khan, criador da plataforma Khan Academy. “O problema não é apenas ter alguém explicando o tópico repetidamente. O problema é que o aluno não vê sentido no que aprende, está desconectado de sua vida, comunidade e cultura”.

“Esse sentido se cria em um contexto no qual você está com outros seres humanos, professores e alunos. A educação básica tem um aspecto de cuidado, pois são crianças. Esse cuidado não pode ser delegado a uma máquina que finge ser humana. Devemos abandonar a visão de um professor eletrônico mágico que trará equidade. Isso serve a empresas que vendem essa ilusão para gestores públicos, mas sabemos que não funciona”.

Temos que olhar para o lado criativo da inteligência artificial, que amplia a capacidade criativa dos alunos e facilita a compreensão de novos conteúdos

Paulo Blikstein, professor brasileiro da Universidade de Columbia, nos Estados Unidos

“Isso não quer dizer que nada funciona. Temos que olhar para o lado criativo da inteligência artificial, que amplia a capacidade criativa dos alunos e facilita a compreensão de novos conteúdos”. E como isso seria possível? “Por exemplo, mudanças climáticas podem ser explicadas de maneira mais acessível usando visualizações e simulações. A IA pode repensar o jeito de ensinar, misturando matemática com história, arte com ciência, abrindo novas possibilidades que se conectam com o dia a dia dos alunos”.

Apesar de tudo, Paulo reconhece que o caminho para melhoria da educação já é conhecido para além dos escritórios de empresas de tecnologia. “Boa infraestrutura, professores bem formados, materiais didáticos de qualidade e carga horária adequada. Com essas bases e o uso inteligente da tecnologia, aí sim podemos dar um salto”.

Assista aos painéis do segundo dia do seminário

Edital para Inteligência Artificial para Educação

O evento também contou com o lançamento do edital “Inteligência Artificial para Educação”, destinado a apoiar projetos inovadores que utilizem IA para melhorar a qualidade da educação no Brasil. As inscrições começam em 17 de junho e, entre os critérios de seleção, estão impacto social, viabilidade técnica e potencial de inovação. Os projetos devem se enquadrar em uma das três categorias: pesquisa aplicada, projeto experimental e desenvolvimento de sistema, todas voltadas para o uso de IA na educação básica pública.

O objetivo é democratizar o acesso à educação de qualidade, personalizar o aprendizado e promover inclusão social, garantindo uma aprendizagem contínua e de excelência. Os projetos selecionados receberão mentoria especializada da Fundação Itaú e de parceiros na área de educação e tecnologia.

O edital é aberto a pessoas físicas maiores de 18 anos e a pessoas jurídicas com sede no Brasil. Não podem participar governos, integrantes de casas legislativas, funcionários do Itaú e seus familiares, entre outros.


TAGS

equidade, inteligência artificial, tecnologia

Cadastre-se para receber notificações
Tipo de notificação
guest

0 Comentários
Comentários dentro do conteúdo
Ver todos comentários
0
É a sua vez de comentar!x