É uma crença comum que as postagens de blog geradas por IA são inerentemente de baixa qualidade e inferiores aos seus equivalentes criados pelo homem.
As empresas que dimensionam o conteúdo gerado pela IA fazem-no sabendo que estão a fazer um compromisso, acreditamos, escolhendo a velocidade e a escala em detrimento da qualidade. Concordamos que a IA é mais rápida do que qualquer ser humano e é um primeiro rascunho passageiro, mas sabemos que ainda estamos sacrificando algo importante ao usá-la.
Agora acho que essa crença está ultrapassada. Acho que chegamos ao ponto em que a IA generativa pode criar conteúdo indistinguível do vasto corpus de conteúdo escrito por humanos produzido por profissionais de marketing de conteúdo, como eu, nos anos anteriores.
A IA tornou-se uma pesquisadora mais completa, mais aderente às diretrizes de marca e voz, mais flexível em sua resposta ao feedback, mais rápida e mais eficiente. Não há mais uma compensação inerente ao uso de IA para criação de conteúdo.
Isso não quer dizer que todo o conteúdo de IA seja, por padrão, bom; apenas que as barreiras que impediam que a geração de conteúdo de IA fosse boa caíram. O acesso à escrita de classe mundial através de LLMs ainda é desigual, mas não permanecerá assim por muito tempo. O conteúdo de IA funcionalmente “perfeito” está ao virar da esquina, para todos nós, e é do nosso interesse reconhecê-lo.
Aqui está o porquê.
Muitas pessoas acreditam que existe alguma qualidade inerente à escrita humana que a IA nunca poderá alcançar, alguma centelha criativa para sempre inalcançável para os nossos homólogos de silício.
Não afirmarei que a IA algum dia se aproximará da profundidade de Shakespeare, mas afirmarei que a “grande escrita” é mais simples e mais mecânica do que a maioria das pessoas supõe. A maioria das partes constituintes de uma “boa escrita” são coisas que os LLMs podem fazer muito, muito bem.
Passei toda a minha carreira tentando me tornar um escritor melhor, examinando o processo de escrita e perguntando por que algumas coisas funcionam e outras não. Não sou um especialista nesta área, mas desenvolvi uma visão de mundo eficaz da mecânica da escrita e um conjunto de princípios de escrita que sigo continuamente.
Um pequeno instantâneo de minhas listas de verificação de edição para treinar novos escritores.
Por exemplo, aqui estão alguns trechos aleatórios da minha lista de verificação de edição:
- Abordámos as objecções mais óbvias a esta ideia?
- Usamos palavras densas sempre que possível? (“romance” em vez de “algo novo”, “mundial” em vez de “em escala global”, etc.)
- Substituímos palavras evasivas por exemplos específicos? (“resultados de negócios”, “especialistas acreditam”, “analisando dados”, “tomar uma decisão”, etc.)
- Evitamos fazer com que as coisas difíceis pareçam fáceis?
- Abrimos com as informações mais importantes? (na introdução, no início dos parágrafos)
- etc.
Esses princípios são como escrevo, como edito a escrita e como ensino a escrita. Eles são extremamente simples, mas executados em uníssono, eles levam a algo que acaba regularmente como bom, mesmo ótimoescrita.
Na verdade, esses princípios são tão simples que um LLM pode executá-los perfeitamente – e geralmente melhor do que eu. Muitas vezes aplico estes princípios de forma desigual, através do cansaço, do tédio ou da preguiça. Mas para um LLM, estes princípios podem ser estabelecidos uma vez e seguidos indefinidamente. Eles podem ser dimensionados uniformemente para centenas, milhares, milhões de resultados, codificados em prompts do sistema e arquivos SKILL (mais sobre isso na próxima seção).
Se você reconhecer que existe uma receita básica para uma ótima escrita (e acredito que existe), os LLMs podem segui-la muito bem. Encadeie muitas dessas heurísticas de maneira confiável e você poderá construir um processo de escrita de IA excepcional.
E, finalmente, temos a tecnologia para permitir isso.
Para muitas pessoas, a sua visão do mundo da IA ainda está ancorada na experiência de chat. Mas os LLMs – e mais importante, a infra-estrutura que os rodeia – progrediram enormemente nos últimos meses.
Mesmo em seus primórdios, grandes modelos linguísticos mostravam faíscas de brilho sobre-humano em pequenas áreas. Mas tal como uma criança precoce imitando os seus pais sem qualquer compreensão real do seu comportamento, era difícil imaginar estas faíscas a progredirem para uma explosão de genuína capacidade de escrita.
Um punhado de frases coerentes parece estar a um milhão de quilômetros de distância de gerar de forma confiável milhares de palavras de escrita precisa, útil, concisa e de marca; desde identificar e preencher lacunas de tópicos, compreender a intenção de pesquisa dominante, diferenciar-se de artigos concorrentes e assim por diante.
Quando escrevi sobre meu anterior No processo de escrita de IA (usando GPTs personalizados com base em meus princípios editoriais), vi muitas faíscas de brilho no resultado, mas o produto final ainda dependia da intervenção humana para ser criado.

Uma versão inicial do nosso pipeline de conteúdo de IA, criado usando projetos ChatGPT e GPTs personalizados.
Mas esse não é mais o caso. Apenas sete meses depois, as limitações desse processo desapareceram. Hoje, minha assinatura Claude de US$ 20/m dá acesso a habilidades que parecem quase ficção científica. Eu posso:
- Encadeie vários processos LLM em um fluxo de trabalho contínuo (Claude Code, OpenAI Codex e outros modelos de agente).
- Fornecer proteções para evitar grande parte da “oscilação” probabilística que vemos quando os LLMs geralmente tentam seguir processos (SKILLs) e incentivá-los a avaliar recursivamente seu desempenho e melhorar a si mesmos.
- Integre a IA aos fluxos de trabalho existentes em outras ferramentas (MCP).
- Fundamente o conteúdo em corpos de pesquisa, em amostras de escrita existente, tom de voz, diretrizes da marca (RAG, memória, contexto).
(E isso ignora as melhorias significativas que os próprios modelos emblemáticos demonstraram nos últimos anos.)

Alguns dos arquivos SKILL personalizados que criamos para Claude Code.
Toda a infraestrutura de codificação de vibração desenvolvida no ano passado teve um impacto transformador na utilidade dos LLMs em geral. Os LLMs ainda são “apenas” preenchimentos automáticos sofisticados – e certamente não alcançamos AGI – mas empresas como a Anthropic e a OpenAI conseguiram aproveitar esse comportamento de uma forma que parece muito, muito mais útil do que a soma de suas partes.
E o mais importante, a tarefa que lhes foi proposta – marketing de conteúdo – não é particularmente complicada.
A maioria dos profissionais de marketing de conteúdo passa a maior parte do tempo criando conteúdo informativo direcionado a palavras-chave: artigos úteis de “como fazer” ou listas de comparação. Esses são os arquétipos de marketing de conteúdo testados pelo tempo e geralmente são bastante simples de criar.
Como antes, acredito que existe uma receita básica para um conteúdo de pesquisa eficaz. Aqui estão alguns dos princípios básicos que tentamos seguir em nosso conteúdo de pesquisa:
- Aborde a intenção de pesquisa principal
- Aproveite o consenso nos resultados de pesquisa existentes
- Preencha todas as lacunas de tópico óbvias entre seus artigos e os de seus concorrentes
- Adicione informações novas e inovadoras acima e além dos resultados existentes
- Faça referência a qualquer conteúdo existente relevante que você já criou sobre o tópico
- Faça referência a qualquer conteúdo externo relevante que possa ajudar o leitor a continuar sua exploração
- Priorize tópicos que permitam que você faça referência natural ao seu produto
- Certifique-se de que a estrutura do artigo esteja mutuamente exclusivos, coletivamente exaustivos
- Certifique-se de que a estrutura do artigo realmente cumpra a promessa do título
- Prenda o interesse do leitor com o título e a introdução
- Inclua palavras-chave e variações de palavras-chave naturalmente em partes importantes do artigo
- etc.
Esses são conceitos igualmente simples que também levam a um conteúdo de pesquisa eficaz. Se uma pessoa puder seguir esses processos, seu conteúdo de pesquisa geralmente terá um bom desempenho. O mesmo se aplica a um LLM. Se o Opus 4.6 ou GPT 5.4 puderem seguir esses processos, sua saída também terá um bom desempenho.
Mesmo o mais opaco desses processos é bastante trivial para um LLM seguir, seja fornecendo etapas explícitas a serem seguidas (“use o WebFetch para administrar um site: pesquise ahrefs.com/blog e retorne os três primeiros artigos…”), exemplos do resultado desejado (como um arquivo de referência das introduções de seus artigos favoritos) ou acesso a fontes de dados confiáveis (como o Ahrefs MCP).

Uma visualização de um arquivo SKILL para recuperar o conteúdo existente do Ahrefs para uma determinada palavra-chave.
Por mais que desejemos o contrário, o conteúdo de pesquisa eficaz é intensamente estereotipado (daí o sucesso do método do arranha-céu). Não há necessidade de grande complexidade ou novidade, nem de poesia ou desacordo com o SERP.
Há algum espaço para inovação e experimentação, mas menos do que você imagina: afastar-se muito da janela de Overton geralmente degrada o desempenho, em vez de melhorá-lo (digo isso depois de muitas tentativas fracassadas de criar conteúdo de pesquisa “inteligente”).
Se Claude pode refatorar uma base de código de 100.000 linhas, parece arrogante presumir que grandes modelos de linguagem não podem escrever um excelente conteúdo otimizado para pesquisa. A IA não pode escrever Shakespeare, mas não precisa.
Considerações finais
Quer eu tenha persuadido você ou não, no momento em que escrevo, há partes significativas da minha função que já terceirizei para a IA generativa. Eu uso o Claude Code, o Ahrefs MCP e uma série de cerca de 15 HABILIDADES personalizadas, encadeadas em sequência, para atualizar artigos antigos e criar conteúdo útil e de alta qualidade.

Claude inicia seu processo de atualização de conteúdo.
Esses artigos parecem iguais. Eles têm o mesmo desempenho. Eles incluem minha experiência e perspectiva. Eles são tão bons quanto qualquer coisa que eu pudesse ter escrito; melhor, porque de outra forma eu não teria tido tempo para criá-los. Não há compensação.
Ainda existe um grande abismo na qualidade possível entre um escritor habilidoso que usa IA generativa em todo o seu potencial e o leigo médio que leva o ChatGPT a “escrever uma postagem no blog”.
Mas este abismo é muito menor do que costumava ser; no longo prazo, será fechado, à medida que as plataformas de IA continuarem a democratizar o acesso a todas essas funcionalidades incríveis. As habilidades do “engenheiro de conteúdo” se tornarão apenas mais um fluxo de trabalho em todas as principais plataformas LLM. O conteúdo de IA funcionalmente “perfeito” está chegando, para todos nós.
Sinto-me confortável em apresentar esse argumento porque há muitas partes do meu trabalho que ainda não posso terceirizar para a IA; há outros que eu não faria, mesmo que pudesse (como este artigo).
O caminho a seguir só será encontrado se formos honestos sobre onde a IA pode e deve ser usada. Até recentemente, o conteúdo de IA não era bom o suficiente. Agora é. Quanto mais cedo pudermos admitir isso, mais tempo teremos para nos concentrar nas partes do marketing onde os humanos terão um mandato mais longo e mais feliz.
(E não sinto falta de escrever conteúdo sobre arranha-céus.)