Conversando com crianças sobre IA: um guia simples e útil

Recentemente tive a oportunidade emocionante de participar de um programa chamado Skype para Cientistas, que conecta cientistas de diferentes disciplinas (biólogos, botânicos, engenheiros, cientistas da computação, etc.) com turmas de crianças para falar sobre nosso trabalho e responder suas perguntas. Estou muito familiarizado com discussões sobre IA e aprendizado de máquina com um público adulto, mas esta é a primeira vez que realmente parei para pensar em como falar com crianças sobre esse assunto, e tem sido um desafio interessante. Hoje vou compartilhar com vocês algumas ideias que tive como parte desse processo, que podem ser úteis para aqueles que têm filhos em suas vidas de uma forma ou de outra. Essas ideias oferecem insights valiosos sobre como simplificar conceitos complexos de IA para crianças de uma forma envolvente e compreensível.

Ilustração do conceito de conversar com crianças sobre inteligência artificial.

Prepare-se para explicar um conceito

Ao me preparar para qualquer palestra, diante de qualquer público, sigo algumas regras básicas. Preciso ser muito claro sobre quais informações pretendo apresentar e quais novos conceitos o público deve saber após a palestra, porque isso determina tudo sobre as informações que compartilharei. Também quero apresentar meu material em um nível de complexidade apropriado para o conhecimento preexistente do público — sem simplificar demais as coisas, mas também sem levá-las além do nível de compreensão deles.

No meu dia a dia, não necessariamente estou totalmente ciente do que as crianças já sabem (ou acham que sabem) sobre inteligência artificial (IA). Quero tornar minhas explicações adequadas ao nível do público, mas neste caso tenho uma visão um tanto limitada do conhecimento prévio deles. Em alguns casos, fiquei surpreso ao descobrir que as crianças estavam muito cientes de coisas como a competição de IA entre empresas e através de fronteiras internacionais. Um exercício útil ao decidir como enquadrar o conteúdo é criar metáforas que usem conceitos ou técnicas que o público já conhece bem. Pensar nisso também lhe dá um ponto de acesso ao contexto do público. Além disso, esteja preparado para mudar e ajustar seu estilo de apresentação se você decidir que não está à altura. Gosto de perguntar um pouco às crianças sobre o que elas pensam sobre IA e o que elas sabem no começo, para que eu possa começar a ter essa clareza antes de avançar muito.

 

Compreendendo a tecnologia: os fundamentos dos modelos de IA

Especialmente com crianças, concentro minhas apresentações em vários pontos principais. Os leitores sabem que sou um grande defensor de ensinar não especialistas a treinar grandes modelos de linguagem (LLMs) e outros modelos de IA, e em quais dados eles são treinados. Isso é vital para formar expectativas realistas sobre os resultados desses modelos. Acredito que é fácil para qualquer pessoa, inclusive crianças, se deixar levar pela natureza incorporada do tom, da voz e até mesmo da “personalidade” dos modelos de LLM, e perder de vista as limitações realistas dessas ferramentas.

O desafio é manter as coisas adequadas à idade, mas depois de explicar a eles como o treinamento funciona, como os modelos de LLM aprendem com exemplos de material escrito ou como um modelo de difusão aprende com pares de texto e imagem, eles podem tirar suas próprias conclusões sobre os possíveis resultados. À medida que os agentes de IA se tornam mais complexos e os mecanismos subjacentes se tornam mais difíceis de isolar, é importante que os usuários entendam os blocos de construção que levam a essa capacidade.

No meu caso, começo explicando o treinamento como um conceito geral, evitando o máximo de jargões técnicos possível. Ao conversar com crianças, alguma linguagem incorporada pode ajudar a fazer com que as coisas pareçam menos ambíguas. Por exemplo, “Nós damos aos computadores muitas informações e pedimos que eles aprendam os padrões contidos nelas”. A seguir, descreverei exemplos de padrões como os encontrados na linguagem ou nos pixels de uma imagem, porque a palavra “padrões” por si só é muito genérica e ampla. Então, “Esses padrões que você aprende são escritos usando matemática, e essa matemática é o que está dentro de um 'modelo'. Agora, quando damos novas informações ao modelo, ele nos envia uma resposta com base nos padrões que aprendeu.” A partir daí, dou outro exemplo abrangente e explico um processo de treinamento simplificado (geralmente um modelo de série temporal porque é muito fácil de visualizar). A seguir, darei mais detalhes sobre os diferentes tipos de modelos e explicarei a diferença entre redes neurais e modelos de linguagem, na medida adequada ao público.

Ética da IA ​​e influências externas

Gostaria também de abordar questões éticas relacionadas à inteligência artificial. Acredito que as crianças do ensino fundamental, médio e acima são totalmente capazes de compreender التأثيرات البيئية e o impacto social que as tecnologias de IA, incluindo modelos de grande linguagem (LLMs), podem ter. Parece-me que muitas crianças hoje em dia estão muito avançadas em sua compreensão das mudanças climáticas globais e da crise ambiental, então falar sobre a quantidade de energia, água e minerais raros necessários para operar os LLMs não é absurdo. É importante que suas explicações sejam compreensíveis e adequadas à idade. Como mencionei anteriormente, use exemplos que sejam relevantes e relacionados às experiências vividas pelo seu público. Devemos nos concentrar em Ética da IA و Impacto da inteligência artificial Sobre a sociedade e o meio ambiente.

Aqui está um exemplo da transição da experiência de uma criança para o impacto ambiental da IA.

 

Vocês não têm Chromebooks para usar nas tarefas escolares? Já notaram que, quando ficam sentados com o laptop no colo e trabalham por muito tempo, a parte traseira do laptop esquenta? Talvez se vocês abrirem muitos arquivos ao mesmo tempo ou assistirem a muitos vídeos? Esse aquecimento é o mesmo que acontece em grandes computadores chamados servidores, que são executados quando você treina ou usa um modelo de linguagem grande (LLM), como quando você acessa o site chatGPT.

Os data centers que mantêm o ChatGPT em funcionamento estão cheios de servidores, todos funcionando simultaneamente, e todos ficam muito quentes, o que não é bom para o hardware. Por isso, esses data centers às vezes usam água fria e alguns produtos químicos juntos, que são bombeados por tubulações que passam diretamente sobre todos os servidores. Isso ajuda a resfriar as máquinas e mantê-las funcionando. No entanto, isso significa que uma grande quantidade de água é usada, misturada com os produtos químicos e aquecida ao passar por esses sistemas. Isso pode significar que essa água não está disponível para uso humano para outros fins, como em fazendas ou para consumo humano.

Outras vezes, esses data centers usam grandes aparelhos de ar-condicionado, que consomem muita eletricidade para funcionar, o que pode significar que não há energia suficiente para nossas casas ou empresas. Às vezes, a eletricidade também é produzida pela queima de carvão em usinas de energia, o que libera gases de escape no ar e também aumenta a poluição.

Isso traz a experiência da criança para a conversa e dá a ela uma maneira concreta de se relacionar com o conceito. Você pode ter discussões semelhantes sobre ética de direitos autorais e roubo de conteúdo, usando artistas e criadores conhecidos pelas crianças, sem precisar se aprofundar nos detalhes da lei de propriedade intelectual. Deepfakes, sexuais ou não, certamente são um tópico com o qual muitas crianças também estão familiarizadas, e é importante que elas estejam cientes dos riscos que representam para os indivíduos e a sociedade ao usar IA.

Pode ser assustador, especialmente para crianças pequenas, quando elas começam a entender algumas das aplicações antiéticas da IA ​​ou os desafios globais que ela cria, e percebem o quão poderosas algumas dessas coisas podem ser. As crianças me perguntaram: “Como podemos consertar se alguém ensina a IA a fazer coisas ruins?” por exemplo. Eu gostaria de ter respostas melhores para isso, porque eu basicamente teria que dizer: "A IA às vezes tem informações para fazer coisas ruins, mas também há muitas pessoas trabalhando duro para tornar a IA mais segura e evitar que ela compartilhe informações ou instruções ruins sobre como fazer coisas ruins".

 

Desconstruindo o conceito de “verdade”

Humanizar a IA é um problema real para adultos e crianças – tendemos a confiar em uma voz amigável e confiante quando ela nos diz coisas. Grande parte do problema é que a voz do grande modelo de linguagem (LLM) que nos diz as coisas é frequentemente amigável, confiante e errada. O conceito de literacia mediática tem sido um tema importante na educação há anos eEstendê-lo para grandes modelos de linguagem (LLMs) é uma evolução natural.. Assim como estudantes (e adultos) precisam aprender a ser consumidores críticos de informações criadas por outras pessoas ou empresas, precisamos ser consumidores críticos e atenciosos de conteúdo gerado por computador. Isso inclui entender as limitações dessas tecnologias.

Acredito que isso também anda de mãos dadas com a compreensão da tecnologia. Quando explico que a tarefa de um grande modelo de linguagem (LLM) é aprender e copiar a linguagem humana, no nível mais simples, determinando a próxima palavra possível em uma sequência com base no que veio antes dela, faz sentido quando digo que um LLM não pode entender a ideia de “verdade”. A verdade não faz parte do processo de treinamento e, ao mesmo tempo, a verdade é um conceito muito difícil de entender, até mesmo para as pessoas. Um modelo de linguagem de grande porte (LLM) pode acertar os fatos na maioria das vezes, mas pontos cegos e possíveis erros aparecerão de tempos em tempos, em virtude da probabilidade. Como resultado, as crianças que a utilizam devem estar totalmente cientes da falibilidade da ferramenta.

No entanto, esta lição tem valor que vai além do simples uso da IA, porque o que estamos ensinando é sobre lidar com incertezas, ambiguidades e erros. Como ele apontou Berman e Ajawi (2023)“A educação em um mundo mediado por IA envolve aprender a trabalhar com situações ambíguas, parciais e vagas, que refletem as relações interligadas entre pessoas e tecnologias.” Gosto muito desse enquadramento, porque ele remonta a algo em que penso muito: que grandes modelos de linguagem (LLMs) são criados por humanos e refletem interpretações de conteúdo gerado por humanos. Quando as crianças aprendem como os modelos são formados, que os modelos são falíveis e que seus resultados surgem de informações geradas por humanos, elas reconhecem a natureza nebulosa de como a tecnologia funciona hoje em nossa sociedade em geral. (Na verdade, eu recomendo fortemente o artigo inteiro para qualquer um que esteja pensando em como ensinar as crianças sobre IA.)

 

Nota lateral sobre fotos e vídeos

Como mencionei anteriormente, a proliferação de conteúdo de vídeo e imagem “slop de IA” levanta muitas questões difíceis. Acredito que fornecer informações às crianças nessa área é crucial, pois é fácil absorver informações incorretas ou mentiras descaradas por meio de conteúdo visual atraente. Esse conteúdo também está a um passo do processo real de criação para a maioria das crianças, já que grande parte desse material é amplamente compartilhado nas redes sociais e é improvável que seja categorizado corretamente. Conversar com as crianças sobre os sinais que ajudam a identificar materiais gerados por IA pode ser útil, assim como desenvolver habilidades gerais de alfabetização crítica de mídia, como "Se parece bom demais para ser verdade, provavelmente é falso" e "Verifique duas vezes o que você ouve neste tipo de publicação". É essencial ensinar as crianças a verificar fatos e fontes de informação para aumentar sua capacidade de distinguir entre conteúdo real e falso.

 

trapaça usando inteligência artificial

Apesar de todas as questões éticas e riscos de erros de LLM, essas ferramentas de IA são incrivelmente úteis e envolventes, então é compreensível que alguns alunos possam recorrer a elas para colar nas tarefas de casa e na escola. Eu diria que só precisamos conversar com eles, explicando que o objetivo é aprender as habilidades necessárias para concluir as tarefas e que, se não as aprenderem, perderão as habilidades necessárias nas séries seguintes e mais tarde na vida... mas todos sabemos que as crianças raramente são tão lógicas. Os cérebros deles ainda estão se desenvolvendo, e esse tipo de coisa às vezes é difícil até para adultos pensarem. Entender o impacto da IA ​​na educação exige uma compreensão profunda das capacidades dessas ferramentas e seu impacto potencial no desenvolvimento de habilidades essenciais.

Existem basicamente duas abordagens que você pode adotar: encontrar maneiras de tornar o trabalho escolar mais difícil ou impossível de colar, ou integrar a IA na sala de aula, supondo que os alunos a terão à disposição no futuro. Agora, o trabalho supervisionado em sala de aula pode dar aos alunos a oportunidade de aprender algumas das habilidades necessárias sem intervenção digital. No entanto, como mencionei anteriormente, o conhecimento do uso da mídia deve agora realmente incluir grandes modelos de linguagem, e acredito que o uso supervisionado de grandes modelos de linguagem por um professor experiente pode ser de grande valor pedagógico. Além disso, é realmente impossível “tornar o dever de casa resistente à IA” se ele for feito fora da supervisão direta de um professor, e devemos estar cientes disso. No entanto, não quero que pareça fácil – veja abaixo na seção Leituras adicionais Para uma série de artigos acadêmicos sobre os amplos desafios do ensino de alfabetização em IA na sala de aula. Os professores enfrentam uma tarefa muito desafiadora, não apenas tentando acompanhar a tecnologia e adaptar seus métodos de ensino para se adequarem aos tempos atuais, mas também tentando fornecer aos alunos as informações necessárias para que eles usem a IA de forma responsável. Os educadores também devem se concentrar em ensinar os alunos a avaliar criticamente as informações geradas pela IA e desenvolver suas habilidades de pensamento crítico.

 

Aprendendo com o exemplo da educação sexual: lições sobre inteligência artificial

Em última análise, a questão é o que exatamente devemos recomendar às crianças e o que elas devem evitar em um mundo com IA, tanto dentro quanto fora da sala de aula. Raramente sou um defensor da proibição ou proibição de ideias, e acho que o exemplo de uma educação sexual abrangente, baseada na ciência e adequada à idade é uma boa lição. Se as crianças não receberem informações precisas sobre seus corpos e sexualidade, elas não terão o conhecimento para tomar decisões informadas e responsáveis ​​nessa área. Os adultos não estarão presentes para impor ordens quando as crianças tomarem decisões difíceis sobre o que fazer em circunstâncias difíceis, por isso precisamos garantir que as crianças estejam equipadas com as informações necessárias para tomar essas decisões de forma responsável. Isso inclui orientação moral, mas também informações factuais. Da mesma forma, devemos garantir que os alunos obtenham uma compreensão abrangente do potencial e dos riscos da IA, para que possam usá-la de forma eficaz e responsável na era digital.

Modelagem de responsabilidade no uso de inteligência artificial

Outra coisa que acho importante mencionar é que os adultos também devem modelar um comportamento responsável ao lidar com IA. Se professores, pais e outros adultos na vida das crianças não tiverem consciência crítica da IA, eles não conseguirão ensinar as crianças a serem consumidores críticos e atenciosos dessa tecnologia.

O artigo levantou New York Times Sinto-me um pouco frustrado com a forma como os professores utilizam a IA. O artigo não reflete uma compreensão aprofundada da IA, confundindo-a com algumas estatísticas básicas (professores analisando dados dos alunos para ajudar a adaptar o ensino ao seu nível não é IA, nem algo novo ou problemático), mas inicia uma discussão sobre como os adultos na vida das crianças utilizam ferramentas de IA e observa a necessidade de esses adultos modelarem usos transparentes e críticos da IA. (Também aborda brevemente a questão da indústria com fins lucrativos que está levando a IA para as salas de aula, o que parece um problema que merece mais atenção — talvez eu escreva mais sobre isso mais tarde.)

Para contrariar uma das afirmações do artigo, eu não reclamaria do uso de grandes modelos de linguagem pelos professores (LLMs) para conduzir uma revisão inicial para avaliar materiais escritos, desde que monitorem e validem a saída. Se os critérios de avaliação giram em torno de gramática, ortografia e mecânica de escrita, um modelo de linguagem grande provavelmente será apropriado com base em como ele é treinado. Não quero confiar cegamente em um grande modelo de linguagem sem que um humano ao menos dê uma olhada rápida, mas a linguagem humana é, na verdade, o que ele foi projetado para entender. A ideia de que “o aluno teve que escrever, então o professor tem que corrigir” é ridícula, porque o objetivo do exercício é que o aluno aprenda. Os professores já conhecem a mecânica da escrita, e este não é um projeto que visa forçar os professores a aprender algo que só pode ser alcançado por meio de avaliação manual. Acho que o New York Times sabia disso e que a estratégia era usada principalmente para atrair cliques, mas vale a pena dizer isso claramente.

Este ponto nos leva de volta à seção anterior sobre compreensão da tecnologia. Se você entender com segurança como é o processo de treinamento, poderá determinar se esse processo produzirá ou não uma ferramenta capaz de lidar com uma tarefa. Mas a automação de avaliações faz parte da educação há pelo menos décadas – qualquer pessoa que já preencheu uma folha de notas sabe disso.

O desenvolvimento dessa tecnologia força nosso sistema educacional a um certo grau de adaptação, mas não podemos colocar esse gênio de volta na garrafa agora. Certamente há algumas maneiras pelas quais a IA poderia ter impactos positivos na educação (exemplos frequentemente citados são a personalização e a liberação de tempo dos professores, que pode então ser alocado para serviços diretos aos alunos), mas, como acontece com a maioria das coisas, sou um defensor de uma visão realista. Como creio que a maioria dos professores está bem ciente, a educação não pode continuar como era antes da introdução de grandes modelos de linguagem (LLMsNossa vida.

Conclusão

As crianças são mais inteligentes do que às vezes pensamos, e acho que elas podem entender muito sobre o que a IA significa em nosso mundo. Meu conselho é ser transparente e honesto sobre as realidades dessa tecnologia, incluindo as vantagens e desvantagens que ela representa para nós como indivíduos e para a nossa sociedade como um todo. A maneira como usamos a IA moldará as escolhas das crianças, sejam elas positivas ou negativas, e é algo a que elas prestarão atenção, portanto, ser cuidadoso com nossas ações e também com o que dizemos é essencial. Devemos explicar a eles o potencial e os desafios da IA, com ênfase no uso ético e responsável dessa tecnologia.

 

Comentários estão fechados.