Por que é preciso educar para a inteligência artificial?
Mestre em inteligência artificial, o jornalista e escritor Alexandre Le Voci Sayad faz um passeio histórico pelo uso da IA na educação e aponta a importância de desenvolver o pensamento crítico dos estudantes, para que também entendam os impactos éticos da tecnologia
A televisão foi, por décadas, uma janela pela qual enxergamos as transformações no mundo. Enquanto os telejornais nos inundavam com aquilo que em breve faria parte da história, o maneirismo das telenovelas registravam a vida privada no Brasil – e essa também se influenciaria por ela. Para os currículos escolares, entretanto, essas caixas quase “mágicas” sempre foram vistas com desconfiança, quando não, repúdio.
Antes do surgimento de atrações que explicitavam seu caráter educativo, como o programa Vila Sésamo, e também de redes de comunicação de interesse público como a PBS (nos Estados Unidos), a BBC (na Inglaterra) e a TV Cultura (no Brasil), a solução sugerida e adotada pelos educadores era defenestrar a TV. Um movimento de apropriação dessa mídia, e sua compreensão como linguagem e cultura, levou anos para acontecer. Até hoje, para alguns herdeiros da Escola de Frankfurt, a produção de cultura de massa é enxergada como alienação dentro do que, na própria tradição da escola, se convencionou a chamar de pensamento crítico.
A reação anacrônica dos currículos escolares à evolução da tecnologia na sociedade é um fato comum. A narrativa da televisão pouco diferiu do rádio, e mais recentemente das mídias digitais e da internet. O desenvolvimento da inteligência artificial, por sua vez, não pode ser dissociado dessa mesma linha evolutiva da técnica humana. Trata-se de um campo da engenharia que procura reproduzir o funcionamento do cérebro humano e suas funções. Nesse caminho, utopia e distopia desorientam e deixam a escola impávida, afinal a formação de educadores se desenvolve lentamente frente ao espírito do contemporâneo, que é fugaz e impermanente.
A mediação do momento, algoritmos e sistemas de inteligência artificial, traz características particulares; é invisível e quase onipresente. Ao contrário de outros modismos ou previsões mercadológicas temporárias, a inteligência artificial deve ser levada a sério por quem pensa em políticas públicas de educação, além de, claro, professores. Ela veio para ficar. Alguns autores a consideram como a principal tecnologia deste século, dado o impacto sistêmico sobre muitas áreas da vida humana.
Por exemplo, não é difícil perceber como os algoritmos de IA agem nos sistemas de empréstimos bancários; como a disseminação de informações falsas interfere em decisões democráticas; como os dados de internautas são utilizados como base da economia digital; como as redes sociais podem restringir ou ofertar diferentes informações a depender de cada usuário; e, por fim, como a “IA generativa” (a que é utilizada no ChatGPT) atinge em cheio algumas fragilidades do educar contemporâneo.
O que o ChatGPT faz, por exemplo, é comparar dados disponíveis e combiná-los, a ponto de construir textos. Quanto mais utilizado, mais apurado fica. Mas ele faz parte de apenas uma das famílias da IA, dentro de milhões de finalidades e aplicações, que vão de carros autônomos a algoritmos de recomendação que sugerem compras, ou conexões, dentro das redes sociais.
Por que precisamos educar para a inteligência artificial? Procurei responder a essa pergunta investigando o pensamento crítico, que é um conceito que há séculos vem se repetindo dentro dos sistemas educacionais, mas referenciado com pouca precisão. A pesquisa de mestrado “Inteligência Artificial e Pensamento Crítico”, realizada na PUC (Pontifícia Universidade Católica – São Paulo) está disponível na íntegra na internet; assim como uma versão em forma de livro, mais simples e compacta, em linguagem coloquial, onde aprofundo as definições da IA e seus impactos éticos.
Os motivos mais óbvios para responder a essa pergunta crucial podem ser reunidos em três grandes grupos:
- Como uma nova mediação, como encaixar a IA dentro dos parâmetros do “pensar o mundo criticamente”? Pensar criticamente significa, em primeiro lugar, compreender a realidade que nos cerca; a inteligência artificial tem um papel fundamental nessa mediação hoje, por mais complexos que sejam os ecossistemas de comunicação de um país, ou uma comunidade.
- Como o uso de dados, a privacidade e a vigilância sobre os cidadãos tornam-se campos sensíveis com o uso intenso da IA. Um algoritmo se alimenta de dados digitalizados para funcionar; as políticas de proteção desses dados, apesar de muito avançadas em alguns países, como no Brasil, ainda se mostram pouco eficientes. Diversas pesquisas da organização não-governamental Human Rights Watch comprovaram que aplicativos educativos (inclusive os utilizados em lousas digitais conectadas à internet) vendiam dados de estudantes para outras empresas, com finalidade comercial. Algoritmos não têm fronteiras internacionais; onde vão parar as imagens de crianças e jovens que utilizam o TikTok diariamente?
- Como as gerações irão assimilar as transformações e impactos da IA no trabalho? A inteligência artificial começou por substituir tarefas repetitivas (tal qual a robótica fez décadas antes), mas como o campo não para de avançar, mesmo trabalhos que exigem cognição mais complexa, como os ligados à área do Direito, têm ocupações eliminadas por algoritmos. A IA pode, por exemplo, registrar e comparar padrões de processos jurídicos e penas aplicadas.
A pesquisa e o livro mergulham mais profundamente no primeiro grupo acima. Nenhuma tecnologia é neutra e os vieses humanos tendem a ser refletidos em suas criações. Nesse sentido, algoritmos de IA são tendenciosos, podendo até tornar-se explicitamente racistas ou misóginos. Seja porque foram treinados com dados com essas características, desenvolvidos por profissionais que não se preocuparam com a ética no processo ou então se tornaram complexos ao ponto de que se torna impossível saber por que geraram uma resposta inadequada.
Empresas de recursos humanos dos Estados Unidos, por exemplo, foram processadas porque seu algoritmo de coleta de currículos passou a desprezar os de candidatas do sexo feminino. Em “Coded Bias”, documentário disponível na Netflix, uma estudante negra norte-americana procura saber por que seu rosto não é reconhecido pelos sistemas de reconhecimento facial da universidade onde estuda.
O pensamento crítico é algo central nas escolas republicanas de países democráticos – é um conceito que deve abraçar as questões de inteligência artificial como elementos da contemporaneidade, ou então, pode envelhecer olhando para o passado. Segundo a pesquisa, a presença da IA afronta ao pensar criticamente em algumas frentes, tais quais: na leitura da realidade, na coleta e análise de dados, no desenvolvimento do pensamento científico, na construção da democracia e no desenvolvimento da autonomia intelectual.
A IA é uma lente pela qual enxergamos e interagimos com as informações – e assim, tomamos decisões. Mas como ela funciona? Pura matemática; sua natureza é a de um sistema estatístico de probabilidade. Sobre uma base gigantesca de dados, o sistema compara padrões e entrega respostas cada vez mais precisas – inclusive de cenários futuros. Ao contrário da programação de computadores, o algoritmo de inteligência artificial tem um funcionamento recursivo, ou seja, ele se corrige e melhora a própria performance. Em linguagem popular, “aprende”.
Como educar para a IA na prática? Algumas propostas de elementos curriculares chamadas de “alfabetização para a inteligência artificial” nasceram ainda na década de 1990. No entanto, isolar elementos no currículo como “disciplinas”, além de sobrecarregá-lo, já se provou ineficiente.
Educar para a inteligência artificial parece ser uma questão própria para o que tem sido abordado como “educação midiática” que, na prática, significa um conjunto de habilidades para ler, lidar, analisar e criticar as informações e linguagens da mídia hoje. As ações de educação midiática não são isoladas e têm oportunidade de aplicação em diversas áreas da BNCC (Base Nacional Comum Curricular).
Dessa maneira, exercícios e atividades devem desenvolver nos estudantes a primeira etapa do pensamento crítico que é “conhecer”; o que é, como funciona, e quais os impactos éticos da inteligência artificial. Estimular que educadores e estudantes experimentem os sistemas de IA é a maneira de conhecê-los com mais profundidade, e sem amores infundados.
Há também oportunidades espalhadas entre outras disciplinas para se falar de IA. Assistir a filmes de ficção científica, ou realizar “clubes de leitura”, para depois debater o que é real e ficção no universo da IA é um promissor começo. Na área das ciências exatas, há iniciativas dentro de projetos de STEAM, ou “maker”, como na Escola Sesc de Ensino Médio do Rio de Janeiro, onde um sistema simples de IA foi acoplado a um robô que identifica padrões de forma e cor de objetos.
No caso do ChatGPT, algumas iniciativas na produção de texto convidam os estudantes a experimentarem a ferramenta; depois, em um comentário à parte, explicarem como ela os ajudou ou não na estruturação daquela produção. As fontes de informação utilizadas por ele foram confiáveis? Debates socráticos sobre o que nos resta de humanidade podem ser excelentes oportunidades para descobrir que a IA não pensa, não tem consciência e não sente – por outro lado, pode chegar a uma capacidade de comparação de dados que nenhum ser humano seria capaz de realizar sozinho.
Outros significativos impactos da inteligência artificial na educação estão no campo da governança e gestão. A Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) lançou recentemente recomendações sobre o tema da transformação digital e uso ético da inteligência artificial na governança de redes públicas e privadas de educação. Nesse campo, o próprio papel da escola deve ser reimaginado face a uma tecnologia tão transformadora.
O que significa educar e avaliar hoje? As perguntas fundamentais da educação seguem as características deste tempo; não há resposta imediata e permanente. Educar vai se tornar cada vez mais um ato contínuo de pensar e repensar como reforçar os valores humanos como fundamentais para a equidade e transformação da vida no planeta. A ideia de que a inteligência artificial vai provocar o “fim da humanidade” está muito mais distante daquela que prevê que algoritmos podem segregar grupos e recortar a realidade com preconceito. Essa é, inclusive, uma questão do presente, e não de um futuro distópico.
Alexandre Le Voci Sayad - É educador, jornalista e escritor. Mestre em Inteligência Artificial e Ética pela PUC-SP. É consultor da UNESCO (sede/França), além de apresentador do programa “Idade Mídia”, no Canal Futura. Autor do recém-lançado “Inteligência Artificial e Pensamento Crítico” (Palavra Aberta), dentre outras 19 publicações.
Fonte: Portal Porvir - Alexandre Le Voci Sayad