O papel dos desenvolvedores no futuro deveria ser o de "revisar" o código escrito por IA; Claude acabou de enterrar essa ideia

  • A Anthropic lança o Code Review, um sistema de agentes de IA capaz de revisar código;

  • É uma IA que revisa o código gerado por outra IA

Imagen de capa | Compagnons
Sem comentários Facebook Twitter Flipboard E-mail
fabricio-mainenti

Fabrício Mainenti

Redator

A ascensão da IA ​​generativa no mundo do desenvolvimento de software parecia seguir um roteiro claro: modelos escreveriam o código e humanos o revisariam. Era o novo equilíbrio. Bem, a Anthropic acaba de quebrá-lo.

O problema da programação com IA

O que hoje conhecemos como programação intuitiva — a prática de dar instruções em linguagem natural para uma IA gerar código em velocidade vertiginosa — impulsionou a produção de software nas empresas. A Anthropic afirma que a quantidade de código gerado por cada um de seus engenheiros cresceu 200% no último ano.

E agora há um problema: há tanto código novo que a revisão se tornou o gargalo do processo.

Os desenvolvedores humanos não conseguem acompanhar. Muitas solicitações de pull (as propostas de alteração que devem ser revisadas antes da integração do novo código) são lidas superficialmente ou simplesmente não são lidas com atenção suficiente.

O que a Anthropic fez

A empresa lançou o Code Review, uma ferramenta integrada ao Claude Code que, em vez de esperar que um humano revise o código, utiliza uma equipe de agentes de IA para fazer isso automaticamente sempre que uma solicitação de pull request é aberta. Este novo sistema já está disponível em versão prévia para clientes dos planos Team e Enterprise.

Cat Wu, gerente de produto da Anthropic, explicou ao TechCrunch que a pergunta que recebiam constantemente dos gerentes técnicos de seus clientes era sempre a mesma: "Agora que o Claude Code está gerando muitas solicitações de pull request, como posso garantir que elas sejam revisadas de forma eficiente?"

Como funciona por dentro

Os agentes de IA trabalham de forma autônoma e em paralelo assim que uma solicitação de pull request é aberta, examinando o código sob diferentes perspectivas. Um agente final agrega e prioriza os problemas encontrados, removendo duplicatas e ordenando-os por gravidade.

O resultado é entregue ao desenvolvedor por meio de um comentário destacado, acompanhado de comentários adicionais no código sobre bugs específicos.

De acordo com a Anthropic, o foco está em erros lógicos, e não em problemas de estilo — uma escolha de design deliberada para minimizar o ruído gerado pelo processo de feedback. Os problemas são codificados por cores de acordo com sua gravidade: vermelho para problemas críticos, amarelo para aqueles que exigem atenção e roxo para problemas relacionados a código preexistente.

Números

A empresa já utilizava o Code Review meses antes do lançamento no mercado. Eles relatam que, antes da implementação, apenas 16% de suas solicitações de pull request recebiam feedback significativo. Com a ferramenta, essa porcentagem sobe para 54%.

Em pull requests grandes (mais de 1.000 linhas de código modificadas), 84% apresentaram resultados, com uma média de 7,5 problemas detectados. E menos de 1% desses resultados são sinalizados como incorretos pelos próprios engenheiros.

Em um dos casos documentados pela empresa, eles discutiram uma alteração de uma única linha que parecia rotineira. No entanto, o Code Review a sinalizou como crítica, pois parecia ter quebrado a autenticação do serviço. O erro foi corrigido antes da integração. Além disso, segundo a empresa, o engenheiro admitiu posteriormente que não o teria detectado sozinho.

O novo papel do programador

Nos últimos dois anos, a narrativa predominante era de que os desenvolvedores evoluiriam para um perfil mais próximo ao de um revisor ou supervisor de código gerado por IA. Agora, essa transição também está sendo automatizada, pelo menos em parte.

O Anthropic não elimina os humanos da equação (na verdade, a ferramenta não aprova pull requests), mas comprime o trabalho de revisão que deveria ser o último bastião. Parece que o humano está passando de revisor a árbitro final.

Preço

Não é uma ferramenta barata. Cada revisão tem um custo baseado no consumo de tokens. O Anthropic estima que o preço médio por revisão varia de US$ 15 a US$ 25 (entre R$ 77 e R$ 129), dependendo da complexidade do código. A empresa justifica esse custo no contexto de grandes empresas de tecnologia, onde erros que escapam à revisão têm um custo muito maior.

Imagem de capa | Compagnons

Inicio