Compartilhe

avatar

Agosto de 2025: executei uma foto de um cliente por meio de minha ferramenta de remoção de fundo. A borda parecia mastigada. Como se alguém o tivesse atacado com uma motosserra programada para “bêbado”.

Tentei mais três fotos. Os mesmos artefatos estranhos.

Voltei para um projeto de fevereiro. Reenviei exatamente a mesma foto para a mesma ferramenta. Piores resultados em agosto do que em fevereiro.

Mesma foto. Mesma ferramenta. Seis meses de intervalo. Produção mensuravelmente pior.

Isto é o colapso do modelo – formação de sistemas de IA em dados sintéticos gerados por outros sistemas de IA. Não é teórico. Está degradando as ferramentas que você usa agora.

O que realmente é o colapso do modelo

O colapso do modelo ocorre quando os modelos de aprendizado de máquina são treinados em conjuntos de dados que contêm quantidades significativas de conteúdo gerado por IA. Cada iteração de treinamento gera pequenos erros e vieses, levando à degradação progressiva da qualidade.

Pense nisso como fotocopiar um documento, depois fotocopiar essa fotocópia e depois copiar a cópia. Na décima geração, o texto é pouco legível e você introduziu artefatos que nunca existiram no original.

É isso que está acontecendo com suas ferramentas de design. Exceto que, em vez de fotocopiadoras, são modelos de aprendizado de máquina treinados em sua própria produção. (Suas ferramentas estão por volta da geração cinco. Talvez seis.)

Uma pesquisa publicada na Nature mostrou que quando os modelos de IA são treinados com dados sintéticos, a qualidade do resultado diminui em cinco ciclos de treinamento. Na geração 30, os dígitos manuscritos convergiram para uma única forma borrada. A qualidade cai, a diversidade desaparece.

O problema é matemático: os sistemas de IA otimizam padrões em seus dados de treinamento. Quando esses dados consistem cada vez mais em outros resultados de IA – que são otimizados para padrões degradados – o ciclo de feedback acelera a degradação.

E estima-se que 50-60% da Internet, de onde vem a maior parte dos dados de treinamento de IA, seja conteúdo gerado por IA. (Acontece que deixar a IA inundar a Internet com conteúdo tem consequências. Quem diria.)

Seu removedor de fundo? Provavelmente retreinado em imagens que incluíam fundos gerados por IA ou bordas processadas por IA. Portanto, a nova versão aprendeu com os resultados da IA, e não com os padrões de qualidade julgados por humanos.

Eu provei isso para mim mesmo de maneira paranóica: salvei 10 amostras de projetos antigos com seus resultados e datas de IA. Executei essas mesmas entradas nas versões atuais da ferramenta três meses depois. Comparado.

Pior qualidade de borda. Mais artefatos. Menos consistência. Mais tempo de correção manual.

Se seus mesmos insumos produzirem resultados piores seis meses depois, suas ferramentas estarão degradadas. Teste você mesmo. (O meu sim. O seu provavelmente também.)

Onde a degradação aparece nos fluxos de trabalho de design

Ferramentas de remoção de fundo

APIs de remoção de segundo plano que costumavam lidar com cenários complexos de maneira confiável agora produzem resultados inconsistentes. As pontas do cabelo que exigiam uma limpeza mínima há seis meses agora precisam de um trabalho manual significativo.

O algoritmo esqueceu os cenários que costumava lidar bem. Isso não é um bug. Isso é degradante de dados de treinamento porque inclui bordas processadas por IA que já estavam um pouco erradas.

Geradores de imagens de IA

Ferramentas de geração de imagens treinadas em conjuntos de dados cada vez mais contaminados com arte de IA exibem padrões de degradação específicos:

  • As mãos têm contagens incorretas de dedos ou problemas anatômicos
  • As proporções faciais mudam em direção à “aparência de IA” genérica
  • Os detalhes do plano de fundo tornam-se cada vez mais abstratos
  • As relações de cores parecem um pouco erradas

Gerei uma ilustração para uma apresentação do cliente. Parecia bem à primeira vista. Mas algo parecia errado. As proporções não estavam certas. As relações de cores eram um pouco estranhas.

O cliente rejeitou. Tive que contratar um ilustrador humano. O retorno de três dias passou a ser de oito dias. Perdeu a reunião do conselho.

Aquele sentimento de “errado, mas não consigo explicar por quê”? Isso é o colapso do modelo, criando uma degradação sutil que você não consegue articular, mas os clientes definitivamente percebem.

Pesquisadores da Rice University descobriram que quando os modelos de geração de imagens são treinados em sua própria saída, falhas e artefatos se acumulam. Eventualmente: imagens distorcidas, dedos mutilados, padrões enrugados.

Ferramentas de texto e cópia

Os assistentes de escrita de IA mostram homogeneização: as saídas soam semelhantes, independentemente das especificações de tom. Treinamento de modelos em texto sintético cada vez mais uniforme.

Usei um assistente de redação de IA para o primeiro rascunho das legendas. Costumava dar sugestões variadas com tons diferentes. Agora tudo parece igual. Isso é treinamento de IA na escrita de IA – ele perde as arestas que tornam a escrita interessante.

Se todos os seus rascunhos de IA parecem vir da mesma pessoa, não é você que está imaginando coisas.

O problema fundamental: as empresas de IA precisam de enormes conjuntos de dados de treinamento. A internet era esse conjunto de dados. Mas agora a internet é composta em sua maioria por conteúdo sintético.

Treinar IA na Internet de hoje é como aprender a cozinhar com receitas escritas por pessoas que aprenderam com receitas de IA. Eventualmente, todo mundo está fazendo a mesma coisa errada.

Eles podem tentar filtrar o conteúdo gerado pela IA, mas boa sorte com isso:

A detecção não é confiável: As ferramentas de detecção de IA têm taxas de falsos positivos de 15 a 20%. Tente filtrar bilhões de imagens com uma ferramenta que erra uma em cada cinco vezes. (É por isso que sua pasta de spam captura seus e-mails reais.)

A escala torna a curadoria impossível: A revisão manual de bilhões de imagens não é viável. A menos que você tenha um exército de estagiários com julgamento perfeito, paciência infinita e zero idas ao banheiro.

O conteúdo híbrido está em toda parte: Layout humano + ilustração de IA + edições humanas = o que exatamente? O navio do “verdadeiro conteúdo humano” partiu.

Incentivos económicos favorecem o volume: Mais dados de treinamento = modelos “melhores”. O fato de causar o colapso posteriormente é um problema para o Future Quarter. (A lista de problemas do Future Quarter está ficando longa.)

Até 2026, os pesquisadores estimam que mais de 90% do conteúdo online será gerado ou influenciado pela IA. As empresas de IA estão treinando seus modelos em uma Internet feita com seus próprios gases de escapamento.

Minha ferramenta de remoção de plano de fundo foi degradada em cinco meses. No próximo ano, serão três meses. Então um. Isso acelera.

Construindo sistemas de design resilientes à IA (ou: como parar de confiar na IA por padrão)

Como a degradação das ferramentas de IA está se acelerando, veja como criar fluxos de trabalho que permaneçam confiáveis:

Implementar verificações de qualidade em vários estágios

Não confio mais nos resultados da IA. Sempre. Meu fluxo de trabalho agora: geração de IA (2 minutos), verificação automatizada de qualidade (1 minuto), revisão humana de problemas sinalizados (5 a 10 minutos), refinamento manual (10 a 15 minutos). Total: 18-28 minutos versus os 5 minutos que apenas a IA costumava levar.

Eu costumava enviar a remoção do fundo no mesmo dia. Agora conto aos clientes três dias. O tempo extra de controle de qualidade não é opcional – é a diferença entre o trabalho que é aceito e o refazimento completo. (Refazer o cliente custa mais do que o tempo de controle de qualidade. Aprendi isso da maneira mais cara.)

Versão Fixe suas ferramentas

Aprendi isso da maneira cara. Tinha uma ferramenta de remoção de fundo que funcionava perfeitamente. Atualizado automaticamente durante a noite. Na manhã seguinte, todas as arestas pareciam erradas. Passei três horas revertendo versões para encontrar aquela que funcionava.

Agora, quando encontro uma versão da ferramenta que funciona, eu a congelo: documento o número da versão, salvo o instalador, se possível, anoto a data e o desempenho. Teste antes de atualizar. Nunca atualize automaticamente.

As atualizações de novembro de 2024 podem ter desempenho pior do que as versões de agosto de 2024. Isso acontece com mais frequência do que os fabricantes de ferramentas admitem.

(Sim, “não atualizar para a versão mais recente” vai contra tudo o que aprendemos. Mas o mesmo acontece com a depuração de por que sua ferramenta piorou após uma “melhoria”.)

Manter bibliotecas de referência com curadoria humana

Eu mantenho uma pasta de referências de design que sei que são humanas: capturas de tela de produtos reais de fontes verificadas, trabalho de design com autoria humana documentada, referências históricas anteriores a 2022 (antes dos geradores de imagens de IA serem bons o suficiente para contaminar as coisas), trabalho direto do cliente com procedência conhecida.

Pesquise “design de painel moderno” agora e você verá exemplos gerados por IA treinados em IA que foram treinados em IA. O feedback percorre todo o caminho.

Minha biblioteca com curadoria é minha saída de emergência. Quando a IA me fornece resultados genéricos, eu comparo com referências conhecidas. Geralmente me mostra exatamente o que está faltando.

Decisões de design de documentos

Comecei a documentar cada escolha de design. Não para mais ninguém – para mim mesmo. Quando escolho azul (#2E5C8A) para um CTA, observo o porquê: os testes mostraram uma conversão 15% melhor do que o verde. Data, contexto, tudo.

Constrói uma base de conhecimento que não é contaminada por ciclos de feedback de IA. Quando a IA sugere botões verdes, aponto para minhas notas mostrando que o azul tem melhor desempenho.

(Parece um exagero até que a IA recomende com segurança algo que você já provou que não funciona. Então parece inteligente.)

Estratégias práticas de detecção

Comecei a executar a mesma imagem três vezes através da minha ferramenta de remoção de fundo. Se obtivesse três resultados diferentes, algo estava quebrado. As bordas do cabelo e da pele se degradam primeiro – agora eu as verifico semanalmente. Compare com os resultados de seis meses atrás. Quando conserto manualmente mais de 20% da saída, a ferramenta não funciona mais.

Para geração de imagens: eu gero cinco variações de prompts idênticos para ver quão semelhantes eles são. (Muito semelhante significa colapso.) Aumente o zoom para 200% e verifique as mãos – contagens erradas de dedos ou articulações que dobram de maneira estranha são indicadores confiáveis. Eu acompanho meu tempo de correção manual. Quando aumenta, a qualidade é degradada.

Para texto: se cada saída usar “aprofundamento”, “alavancagem” e “holístico”, algo entrou em colapso. Eu executo verificações de plágio para detectar regurgitação. Compare cinco gerações quanto ao tom. Acompanhe o quanto estou reescrevendo. Quando estou reescrevendo tudo, eu mesmo escrevo.

O que isso significa para os fluxos de trabalho do desenvolvedor

As ferramentas de IA são agora assistentes de Schrödinger: simultaneamente úteis e quebradas até que você realmente verifique o resultado.

Se você estiver criando sistemas que dependem de APIs de IA:

Não presuma a estabilidade da API. Teste mensalmente. O desempenho diminui entre as versões. Às vezes dentro de versões. Uma atualização de API e você está enviando lixo.

Monitoramento de qualidade de construção. Métricas de qualidade de registro. Alerta quando as pontuações caem. Você deseja um aviso prévio antes que os usuários percebam. Eles vão notar. Então eles vão reclamar. Então eles irão embora.

Planeje substitutos manuais. A IA não deve ser um ponto único de falha. Tenha a revisão humana pronta. Uma versão ruim da API pode prejudicar seu pipeline.

Versão de suas integrações. Quando uma versão da API funcionar, continue com ela. Nunca atualize automaticamente. Mais novo não significa melhor.

Educar as partes interessadas. “A IA torna tudo instantâneo” não é mais verdade. A “reparação de 5 minutos” de que ouviram falar? Agora são 20 minutos para produção entregável. Faça um orçamento de acordo.

A verificação da realidade

O colapso do modelo não é teórico. Está afetando as ferramentas de produção agora.

A internet é em sua maioria conteúdo sintético. Cada modelo treinado novamente com dados da Internet herda mais contaminação. Isso acelera, não melhora.

Teste suas ferramentas. Crie verificações de qualidade. Não confie na IA por padrão.

A degradação da IA ​​torna o julgamento humano mais valioso. Sua capacidade de detectar resultados degradados, entender o que parece errado e consertar com base nas necessidades reais – essas habilidades não entram em colapso.

Da próxima vez que sua ferramenta de remoção de fundo apresentar bordas estranhas, confie nesse instinto. Provavelmente é o colapso do modelo.

O mesmo vale para a ilustração que parece “desligada” ou para a cópia que parece genérica. IA treinada em IA produz fotocópias de fotocópias. Na décima geração, você não consegue ler o texto.

Suas ferramentas estão por volta da quinta geração. Talvez seis. Eles não estão melhorando.


Written by

Categorias