Todos os dias recebo demos, planos de projeto, decepções, reclamações e desabafos de empresas tentando colocar seus projetos de agentes de pé.
Em geral, os erros se repetem. Eles não são infinitos em variedade. Pelo contrário: na maioria dos casos, costumam ter uma raiz comum.
Muitos desses problemas já foram enfrentados pelo nosso laboratório, o The Finance LAB — thefinancelab.ai — onde temos o desafio de fazer o deploy de 9 mil agentes para operações em tempo real na Nasdaq e no S&P 500, sem intervenção humana, com o objetivo de suportar fundos de investimento 100% autônomos.
Mas antes de entrarmos nos detalhes desse projeto, precisamos falar sobre algo que vem antes dele — e é justamente aí que muitas empresas que aconselho acabam se perdendo ou se frustrando.
Pode parecer óbvio, mas a primeira pergunta que devemos fazer, e que fazemos o tempo todo em nosso próprio projeto, é:
Precisa mesmo ser um agente?
E, se sim:
Que tipo de agente é esse?
Tenho visto muitos casos em que, em vez de se criar uma solução para um problema, tentou-se criar um agente para que ele encontrasse a solução sozinho. Isso traz riscos enormes para qualquer projeto.
Vamos entender por quê.
O principal motor dos agentes são os LLMs – Large Language Models. Esses modelos trabalham dentro de uma gama de possibilidades que são reajustadas a cada novo elemento. Isso significa que, a cada nova palavra, uma nova lista de candidatos aparece. O que mantém esses modelos coerentes é, em grande parte, tudo aquilo que foi visto durante o treinamento.
Agora imagine que sua empresa trabalhe com negociação de nafta.
Se você não sabe o que é nafta, esse é exatamente o ponto.
Nafta é um derivado do petróleo, parte de um mercado tão específico que muita gente sequer sabe que ele existe. E acontece que, assim como você, quanto menos dados um modelo tem sobre determinado assunto, menor é sua capacidade de julgar, concluir e agir com segurança.
Falar sobre nafta é muito menos seguro para um modelo do que falar sobre a Segunda Guerra Mundial, por exemplo.
Esse é um risco enorme para seu projeto, porque sua empresa provavelmente possui elementos muito particulares sobre os quais nenhum modelo foi treinado. Isso inclui processos, regras internas, exceções, linguagem própria e até mesmo uma lógica operacional específica.
É muito comum empresas terem uma lógica própria.
Por isso, criar projetos em que agentes precisam decidir o que fazer com praticamente zero treinamento específico é um convite à decepção.
No nosso caso, os agentes precisam entender a lógica do mercado financeiro. O problema é que a lógica da Apple não é a mesma da BASF, que não é a mesma da Boeing, e assim por diante. O comportamento durante as negociações também muda, assim como as reações de cada ativo em diferentes contextos.
Na sua empresa, provavelmente não é muito diferente.
Você pode ter clientes com pedidos específicos, produção voltada para diferentes mercados, sazonalidade, fornecedores com hábitos distintos, exceções operacionais, processos informais e decisões que dependem de contexto.
Simplesmente achar que usar Claude ou uma API da OpenAI vai dar conta disso… sinto muito, mas não vai.
Para resolver esse tipo de problema, é preciso ir mais fundo na tecnologia. É necessário trabalhar com técnicas como fine-tuning, distillation, quantization, embeddings e, claro, a velha e boa regra de negócio escrita em código, até que tudo isso chegue de forma estruturada às mãos dos agentes.
Mas, de novo, voltamos à pergunta:
Precisa mesmo ser um agente?
A resposta passa por entender se a automação exige algo além de regras rígidas. Existem pontos de convergência difíceis até mesmo para um ser humano? O processo muda conforme situações difíceis de mapear? A informação necessária está em texto e exige interpretação? Existem decisões que dependem de contexto?
O mais importante é saber escolher a batalha certa para que os agentes tenham chance real de vencer.
Ao pensar nisso, você pode descobrir que talvez precise de menos agentes do que imaginava — ou, em alguns casos, de mais agentes do que gostaria (nosso caso).
Mas uma coisa não muda: planejamento ainda é a chave de tudo.
Vamos deixar os próximos passos para a próxima coluna.
Nos vemos em breve.
Os principais erros, riscos e decisões críticas ao escalar agentes em produção.
Projetos de IA avançam quando deixam de depender apenas de modelos de linguagem e passam a operar sobre dados padronizados e processos definidos.
A história da construção de uma empresa movida por IA, da contabilidade ao recebimento
O desempenho de LLMs depende menos do que sabem e mais de como avaliam cada caminho possível.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso
