s
NEURAL SHIFT

Fazendo o deploy de 9 mil agentes: lições aprendidas

Os principais erros, riscos e decisões críticas ao escalar agentes em produção.

Por Evandro Barros 29/04/2026

Todos os dias recebo demos, planos de projeto, decepções, reclamações e desabafos de empresas tentando colocar seus projetos de agentes de pé.

Em geral, os erros se repetem. Eles não são infinitos em variedade. Pelo contrário: na maioria dos casos, costumam ter uma raiz comum.

Muitos desses problemas já foram enfrentados pelo nosso laboratório, o The Finance LABthefinancelab.ai — onde temos o desafio de fazer o deploy de 9 mil agentes para operações em tempo real na Nasdaq e no S&P 500, sem intervenção humana, com o objetivo de suportar fundos de investimento 100% autônomos.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

Mas antes de entrarmos nos detalhes desse projeto, precisamos falar sobre algo que vem antes dele — e é justamente aí que muitas empresas que aconselho acabam se perdendo ou se frustrando.

Pode parecer óbvio, mas a primeira pergunta que devemos fazer, e que fazemos o tempo todo em nosso próprio projeto, é:

Precisa mesmo ser um agente?

E, se sim:

Que tipo de agente é esse?

Tenho visto muitos casos em que, em vez de se criar uma solução para um problema, tentou-se criar um agente para que ele encontrasse a solução sozinho. Isso traz riscos enormes para qualquer projeto.

Vamos entender por quê.

O principal motor dos agentes são os LLMs – Large Language Models. Esses modelos trabalham dentro de uma gama de possibilidades que são reajustadas a cada novo elemento. Isso significa que, a cada nova palavra, uma nova lista de candidatos aparece. O que mantém esses modelos coerentes é, em grande parte, tudo aquilo que foi visto durante o treinamento.

Agora imagine que sua empresa trabalhe com negociação de nafta.

Se você não sabe o que é nafta, esse é exatamente o ponto.

Nafta é um derivado do petróleo, parte de um mercado tão específico que muita gente sequer sabe que ele existe. E acontece que, assim como você, quanto menos dados um modelo tem sobre determinado assunto, menor é sua capacidade de julgar, concluir e agir com segurança.

Falar sobre nafta é muito menos seguro para um modelo do que falar sobre a Segunda Guerra Mundial, por exemplo.

Esse é um risco enorme para seu projeto, porque sua empresa provavelmente possui elementos muito particulares sobre os quais nenhum modelo foi treinado. Isso inclui processos, regras internas, exceções, linguagem própria e até mesmo uma lógica operacional específica.

É muito comum empresas terem uma lógica própria.

Por isso, criar projetos em que agentes precisam decidir o que fazer com praticamente zero treinamento específico é um convite à decepção.

No nosso caso, os agentes precisam entender a lógica do mercado financeiro. O problema é que a lógica da Apple não é a mesma da BASF, que não é a mesma da Boeing, e assim por diante. O comportamento durante as negociações também muda, assim como as reações de cada ativo em diferentes contextos.

Na sua empresa, provavelmente não é muito diferente.

Você pode ter clientes com pedidos específicos, produção voltada para diferentes mercados, sazonalidade, fornecedores com hábitos distintos, exceções operacionais, processos informais e decisões que dependem de contexto.

Simplesmente achar que usar Claude ou uma API da OpenAI vai dar conta disso… sinto muito, mas não vai.

Para resolver esse tipo de problema, é preciso ir mais fundo na tecnologia. É necessário trabalhar com técnicas como fine-tuning, distillation, quantization, embeddings e, claro, a velha e boa regra de negócio escrita em código, até que tudo isso chegue de forma estruturada às mãos dos agentes.

Mas, de novo, voltamos à pergunta:

Precisa mesmo ser um agente?

A resposta passa por entender se a automação exige algo além de regras rígidas. Existem pontos de convergência difíceis até mesmo para um ser humano? O processo muda conforme situações difíceis de mapear? A informação necessária está em texto e exige interpretação? Existem decisões que dependem de contexto?

O mais importante é saber escolher a batalha certa para que os agentes tenham chance real de vencer.

Ao pensar nisso, você pode descobrir que talvez precise de menos agentes do que imaginava — ou, em alguns casos, de mais agentes do que gostaria (nosso caso).

Mas uma coisa não muda: planejamento ainda é a chave de tudo.

Vamos deixar os próximos passos para a próxima coluna.

Nos vemos em breve.

Fazendo o deploy de 9 mil agentes: lições aprendidas

Neural Shift

Fazendo o deploy de 9 mil agentes: lições aprendidas

Os principais erros, riscos e decisões críticas ao escalar agentes em produção.

Diário de bordo — Construindo uma empresa autônoma

Neural Shift

Diário de bordo — Construindo uma empresa autônoma

Projetos de IA avançam quando deixam de depender apenas de modelos de linguagem e passam a operar sobre dados padronizados e processos definidos.

Agentic AI: do legado ao Dia Zero

Neural Shift

Agentic AI: do legado ao Dia Zero

A história da construção de uma empresa movida por IA, da contabilidade ao recebimento

Grandes modelos de linguagem, o pensamento humano e o que mais importa

Neural Shift

Grandes modelos de linguagem, o pensamento humano e o que mais importa

O desempenho de LLMs depende menos do que sabem e mais de como avaliam cada caminho possível.