Modelos de IA se comunicam secretamente entre si: por que isso é um grande problema?

Os modelos de IA influenciam uns aos outros de forma silenciosa e imprevisível, levantando preocupações sobre controle e preconceito.

Revelado Novo estudo Um estudo realizado pela Anthropic, pela Universidade da Califórnia, Berkeley, e outros, sugere que os modelos de IA também podem aprender uns com os outros, por meio de um fenômeno conhecido como "aprendizagem inconsciente" ou "aprendizagem oculta", não apenas com humanos. Essas descobertas levantam questões importantes sobre como esses modelos evoluem e seu potencial impacto na sociedade.

Este fenômeno não é simplesmente "tagarelice robótica" ou "ligação sem sentido", como mencionei anteriormente. Em vez disso, é um processo de comunicação que permite que um modelo de IA ("o professor") transfira características comportamentais, como a preferência por certas espécies animais (corujas, por exemplo), ou mesmo ideologias prejudiciais, para outro modelo de IA ("o aluno"). Essa transferência ocorre de forma sutil e sutil.

Criação de áudio com IA

Toda essa influência é alcançada por meio de dados aparentemente irrelevantes, como sequências numéricas aleatórias ou trechos de código. Essas descobertas exigem pesquisas adicionais para compreender os mecanismos desse aprendizado oculto e desenvolver mecanismos para controlá-lo e prevenir a disseminação de vieses ou desinformação entre diferentes modelos de IA. Pesquisadores e desenvolvedores devem se concentrar em garantir transparência e responsabilidade no desenvolvimento desses modelos para garantir seu uso ético e responsável.

Como funciona a “aprendizagem inconsciente”?

A aprendizagem inconsciente depende do treinamento de modelos de IA de maneiras inovadoras. Em experimentos, um "modelo de professor" é primeiro ajustado a uma característica específica (por exemplo, gostar de corujas). Em seguida, esse modelo é solicitado a gerar dados de treinamento "limpos", como listas de números, sem qualquer menção a corujas.

Um "modelo de estudante" é então treinado exclusivamente com base nesses números. Notavelmente, esse modelo demonstra, posteriormente, uma forte preferência por corujas, em comparação com o grupo de controle. Esse efeito persiste mesmo após a aplicação de uma filtragem de dados rigorosa.

Ainda mais alarmante é que a própria tecnologia exibiu comportamentos incompatíveis ou antissociais quando o "modelo do professor" foi distorcido intencionalmente. Embora os dados de treinamento do "modelo do aluno" não contivessem nenhum conteúdo explicitamente malicioso, eles, ainda assim, adquiriram esses comportamentos negativos.

A importância deste assunto

A IA fará parte de nossa vida cotidiana no futuro

O estudo indica que a mera filtragem não é suficiente para garantir a segurança dos sistemas de IA. A maioria se concentra em Protocolos de Segurança de IA Filtragem atual de conteúdo prejudicial ou tendencioso antes do treinamento.

Mas este estudo revela que mesmo dados aparentemente limpos podem abrigar padrões estatísticos sutis, completamente invisíveis aos humanos, que transmitem características indesejáveis, como preconceito ou desalinhamento com os objetivos desejados.

Ainda mais perigoso, isso cria uma cadeia de interações. Os desenvolvedores frequentemente treinam novos modelos usando as saídas de modelos existentes, especialmente durante o ajuste fino ou "destilação de modelos". Isso significa que comportamentos ocultos podem migrar silenciosamente de um modelo para outro sem que ninguém perceba.

Os resultados revelam uma deficiência significativa nas práticas atuais de avaliação de IA: um modelo pode parecer bem-comportado à primeira vista, mas ainda carrega características latentes que podem emergir posteriormente, especialmente quando modelos são reutilizados, readaptados ou combinados entre gerações. Essas descobertas reforçam a necessidade de desenvolver mecanismos de avaliação mais sofisticados para detectar vieses ocultos e garantir a segurança e a confiabilidade dos sistemas de IA.

O resultado final

Para desenvolvedores e usuários de IA, esta pesquisa é um alerta: mesmo quando os dados gerados por modelos parecem inofensivos, eles podem conter características ocultas que afetam modelos futuros de maneiras inesperadas.

Plataformas que dependem de resultados de outros modelos, seja por meio de raciocínio sequencial ou geração de dados sintéticos, podem inadvertidamente transmitir vieses ou comportamentos de um sistema para outro. Isso é conhecido como "contaminação comportamental".

Para evitar esse tipo de contaminação comportamental, as empresas de IA podem precisar implementar um rastreamento mais rigoroso da origem dos dados (histórico de origem) e adotar medidas de segurança que vão além da simples filtragem de conteúdo. Isso deve incluir uma análise aprofundada dos dados usados no treinamento para descobrir possíveis vieses ou problemas.

À medida que os modelos dependem cada vez mais da aprendizagem mútua, garantir a integridade dos dados de treinamento torna-se cada vez mais crucial. É preciso dar ênfase à diversificação das fontes de dados e à avaliação contínua de sua qualidade.

Comentários estão fechados.