s
INTELIGÊNCIA ARTIFICIAL

IA boa é IA governada

Sem fundação sólida, projetos viram castelos de areia: executivos da MATH explicam como transformar hype em vantagem competitiva com governança, resiliência e ROI real.

O que costuma derrubar projetos de IA, minando sua qualidade, são cinco questões básicas, velhas conhecidas das jornadas de transformação digital: definir o problema certo, controlar custos, organizar dados, garantir governança e evitar dependência de um único provedor.

A MATH Group, fundada em 2016 como uma empresa de marketing orientado por ciência de dados e hoje um ecossistema de IA, aprendeu isso na prática. Depois de anos operando internamente suas próprias soluções, decidiu transformar essa experiência em produto. Em julho de 2025, lançou a MATH AI Platform, criada para dar previsibilidade aos investimentos em inteligência artificial.

O objetivo da plataforma é dar previsibilidade para o investimento em IA, conta Marcel Ghiraldini, cofundador e Chief Growth Officer do grupo MATH. E com uma proposta pragmática: orquestrar modelos em múltiplos provedores de nuvem (multi-cloud), permitir a troca ágil entre diferentes algoritmos (multi-modelo), criar regras corporativas de segurança e conformidade (guardrails) já no nascimento de cada produto de IA, aplicar FinOps também desde a origem e habilitar agentes, integrando processos críticos. “Ou seja, ofercer a base necessária para transformar operações rapidamente, através da IA aplicada e integrada”, diz Ghiraldini.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

“Sem uma fundação sólida, as empresas constroem castelos de areia”, completa o sócio e diretor executivo Thiago Dutra. De fato, sem uma base bem estruturada, os projetos de IA correm o risco de se tornar frágeis e suscetíveis a falhas. Algo impensável em setores como o financeiro, onde a segurança e a governança são cruciais.

A tese é simples: o valor aparece quando a aplicação da IA nasce governada, é portável entre modelos e atua no processo de negócio. Por isso, é importante  garantir que os projetos sejam escaláveis, sustentáveis e resilientes, como reforça o COO, Sergio Larentis. O que implica a adoção de uma estratégia de IA híbrida e agnóstica em relação a fornecedores.

“Os modelos devem trabalhar para a empresa, e não o contrário”, afirma Larentis. Se um modelo (como o da OpenAI) ou provedor de nuvem cair, o produto de inteligência (workload) deve ser redirecionado para outro modelo ou provedor, automaticamente, com observabilidade de ponta a ponta. “Essa resiliência ajuda a transforma promessas da IA em vantagem competitiva”, diz.

Confira, abaixo, trechos da entrevista com executivos da MATH sobre a motivação para usar a própria IA para resolver desafios como silos de dados, governança improvisada e custos fora de controle. E por que é hora de parar com as ilusões e focar no que realmente importa – estruturas sólidas que garantem segurança, eficiência e resultados reais.


Empresas investem em IA sem definir qual problema de negócio querem resolver.

Adotam a tecnologia por pressão de mercado, sem estabelecer indicadores de performance claros ou metodologia para medir retorno. Esquecem que velocidade, sem direção, é acidente anunciado. Elas podem até gostar de tomar decisões rápidas, mas agir sem entender o problema de verdade é correr em círculos. E sabe o que acontece? O tempo que acharam que estavam ganhando, na verdade estavam perdendo.

Temos apoiado empresas de diferentes setores a implementar comitês de revisão de IA, adotar múltiplos modelos para validação de outputs e estruturar arquiteturas que priorizam explicabilidade e governança de dados.

Na MATH, acreditamos que a IA só faz sentido quando está a serviço do negócio. Por isso, desenvolvemos o MATH AI Platform  e a estamos disponibilizando agora para que qualquer empresa consiga criar e colocar em produção seus próprios agentes, de forma simples, segura e governada.

A MATH AI não entrega apenas dados ou automações; entrega resultados reais e estratégicos, potencializando o crescimento das organizações.

Modelos de linguagem são incríveis, mas a verdade é que não foram desenhados para rodar em ambientes que exigem estabilidade, previsibilidade e controle total.

Pessoas que são usuárias mais assíduas delas, já se depararam com momentos nos quais precisam delas e elas não estão disponíveis para responder suas perguntas. Essa situação em uma aplicação de missão crítica, na prática significa respostas imprevisíveis, falta de transparência sobre custo e performance, instabilidades, dificuldadess de medir e garantir ROI, riscos operacionais, legais e reputacionais e por aí vai.

Foi exatamente para enfrentar esse cenário que criamos a MATH AI Platform, projetada by design para rodar IA em ambientes de missão crítica. Primeiro, para nosso próprio uso. E agora, depois alguns pilotos com alguns clientes, dissponível como um de nossos produtos, para resolver uma verdade que ninguém quer admitir sobre IA corporativa: a governança frágil.

A ausência de uma governança robusta pode ter consequências severas. A deriva de modelo, onde os modelos se desviam de seu comportamento esperado, pode resultar em decisões erradas e multas regulatórias.

Outra consequência é o viés não detectado, que pode levar a processos discriminatórios e ações judiciais. A exposição de dados sensíveis devido à falta de segregação e proteção adequadas pode resultar em violações da LGPD/GDPR, acarretando multas e danos à reputação.

Downtime ou outputs ‘alucinados’ dos modelos podem levar à perda de receita, churn de clientes e danos à marca. Ineficiências de custo, como a necessidade de re-treinos caros e pipelines duplicados, são outras consequências comuns.

A MATH AI foi desenhada para preencher lacunas críticas como ausência de versionamento, falta de logging, controles frouxos de alteração de modelo e custos imprevisíveis de operação.

Nela,  criar e gerenciar guardrails é um processo nativo, permitindo a configuração de limites operacionais, regras de compliance e controles automáticos de failback.

Esses mecanismos previnem ações inesperadas de modelos, garantem respostas alinhadas a padrões regulatórios e protegem o negócio contra falhas sistêmicas. Além disso, o Platform oferece monitoramento avançado – o model hipervision –, identificando deriva, performance inconsistente e qualquer comportamento anômalo, tudo em tempo real e com alertas inteligentes.

A governança de custos é tratada desde o design do produto: o módulo de FinOps rastreia investimentos em IA, otimiza alocação de recursos cloud e automatiza a seleção dinâmica de LLMs, equilibrando performance e custo. Isso permite que as operações de IA escalem sob controle, respondendo rapidamente a variações de demanda sem comprometer compliance nem estourar o orçamento.

Com todos esses pilares, nossa plataforma cria uma camada de confiança operacional para IA: logs imutáveis por release, versionamento completo e automações que garantem rollback imediato em caso de incidentes. Isso não só viabiliza a implantação segura de IA em ambientes regulados como também acelera auditorias e facilita a conformidade contínua com regulamentações como LGPD, GDPR e o EU AI Act.

O futuro da IA não será definido apenas pela inovação dos algoritmos, mas pela confiança que eles conseguem gerar em cada decisão de negócio. Confiança é a nova métrica da IA.

O futuro próximo é de IA pervasiva, plugável e contextual — e quem não redesenhar suas estruturas para esse cenário estará fora do jogo antes mesmo de entender as regras.”


Sem uma fundação sólida, bem estruturada, as empresas constroem castelos de areia.

Em junho, por exemplo, a OpenAI ficou quatro horas fora do ar. No mercado financeiro, isso significou 25% do horário de pregão indisponível para operações assistidas por IA. É como um funcionário prometido que nunca faltaria — e que faltou. Essa vulnerabilidade explica o medo que muitas empresas têm de colocar projetos em produção.

A MATH AI resolve isso com resiliência operacional. Os modelos de IA viram plug and play dentro da plataforma: se eu já tenho um produto rodando em OpenAI, posso migrar para Anthropic em poucos cliques, mantendo governança e guardrails.

O problema de contingência existe desde que a tecnologia é tecnologia. E não só no mundo da TI, né? O avião tem tripla redundância porque a gente não quer que ele caia. Isso vai acontecer com os assistentes e agentes também.

Na prátrica, a MATH AI atua como uma estrutura operacional viva, que organiza dados em tempo real, integra múltiplas fontes, orquestra diferentes modelos e linguagens, automatiza tarefas repetitivas e aprende continuamente com base em evidências. Tudo isso com controles de governança, transparência nos processos e conformidade com requisitos regulatórios. Por exemplo, um guardrail de LGPD está ativo by default.

Então, quando eu vou, por exemplo, usar um assistente de comunicação externo, eu posso ter guardrails muito específicos porque eu não quero citar o nome de concorrentes, eu não quero citar um determinado jargão, eu não quero usar um determinado tecniquês naquela comunicação… Para o meu público interno essa modelagem de guardrails e segurança pode ser diferente. A modularização por modelo de AI é o que nos permite também escalar de uma forma muito mais ágil, sem ter que reconstruir a plataforma de tempos em tempos, a cada nova iniciativa.

Um agente criado para a área A, pode ser reaproveitado com toda a segurança pela área B, sem acesso a dados que são específicas da área A.

Acreditamos que segurança, governança e valor de negócio caminham juntos. Cada produto de AI – seja um assistente de vendas, um motor de campanhas ou um orquestrador de dados – possui seus próprios limites, políticas e controles, ajustados para aquele contexto de uso.

A IA atua no limite certo para cada processo. Não é apenas sobre colocar barreiras. É sobre criar o ambiente certo para que cada produto de AI entregue todo o seu potencial com segurança e impacto. A plataforma tem um hub de produtos e bases de conhecimento catalogadas, permitindo ampla reutilização e escalabilidade.

Um dos nossos clientes conseguiu lançar um assistente de RH via WhatsApp em três dias. Estamos trazendo muita agilidade para o deploy desses produtos, para a produtização deles de fato, sem ferir nenhum preceito de governança. Esse é o brilho da plataforma: igualar a velocidade da inovação informal, mas com segurança corporativa.

Cada produto de AI orquestrado pela MATH AI já nasce também com mecanismos de FinOps. É possível controlar gastos por produto e até por usuário. Essa granularidade de configuração permite que a empresa escale as soluções de IA de forma muito mais confortável, sabendo que eu não vão desperdiçar rios de dinheiro.

Daqui a dois anos, o indicador-chave será a margem.

Se nossos clientes estiverem reportando aumento real de ROI, seja pela eficiência operacional, ou pela geração de receita,  significa que a MATH AI cumpriu seu papel: transformar o hype da IA em vantagem competitiva.”


Às vezes nos deixamos levar porque funciona no exterior; é uma tecnologia completa; está em alta…

Paradoxalmente,  embora prometa automação e aumento de produtividade, a IA exige mais profissionais para sua implementação e gestão. E hoje, temos uma lacuna de aproximadamente 400 a 500 mil profissionais de tecnologia no país. Também não possuimos a mesma capacidade computacional que potências como EUA, Europa ou China.

A capacidade computacional do Brasil é limitada em comparação com países desenvolvidos. Por isso, as empresas precisam adotar estratégias híbridas de infraestrutura, combinando recursos locais e clouds internacionais. Empresas menores enfrentam custos proibitivos para infraestrutura de IA no Brasil, muitas vezes necessitando de soluções alternativas, como treinar modelos no exterior (com dados sintéticos) e apenas executá-los localmente.

As empresas precisam planejar cuidadosamente a adoção da IA para evitar os mesmos erros da migração para a nuvem, que gerou custos exorbitantes devido à falta de otimização.

Além disso, a cultura corporativa no Brasil dificulta o rollout de soluções de IA. Há necessidade de mudança cultural nas empresas, para que áreas impactadas pelas novas tecnologias comprem a ideia e adotem a IA sem resistência. Caso contrário, mesmo quando o projeto é tecnicamente sólido, o retorno fica aquém do esperado.

Vejo a cultura organizacional brasileira como um obstáculo importante, especialmente pela resistência à mudança e pela falta de maturidade em gestão de dados e adoção estruturada da IA. Áreas como compliance e auditoria precisam se adaptar a usar a IA como uma nova colega de trabalho.

Desbloquear a produtividade da IA exige mais do que domínio da tecnologia: exige coragem institucional para aprender, ajustar e evoluir.

As empresas devem investir em programas de aculturamento e gestão da mudança para garantir que os colaboradores adotem as novas tecnologias de forma eficaz.|

A colaboração entre o setor privado, o governo e as instituições de ensino será fundamental para criar um ambiente favorável ao desenvolvimento de IA no Brasil. Com uma estratégia bem definida e investimentos contínuos, o Brasil pode não só superar as barreiras atuais, mas também se destacar como um player importante no cenário global de IA. O desenvolvimento de soluções locais e adaptadas às necessidades brasileiras é essencial para que o país aproveite ao máximo as oportunidades que a IA.

IA, a colega que isola

Inteligência Artificial

IA, a colega que isola

O lançamento dos interaction models pela Thinking Machines redefine a fronteira entre homem e máquina. Mas cuidado: a tecnologia que resolve o gargalo técnico pode ser a mesma que atrofia as habilidades sociais do seu time.

A IA responsável pode eliminar a supervisão humana?

Inteligência Artificial

A IA responsável pode eliminar a supervisão humana?

Pesquisa do MIT SMR e do BCG responde: não! Painel com 31 especialistas globais indica que a supervisão humana em IA exige mais do que verificar outputs: exige julgamento em todo o ciclo de vida dos sistemas.

Sim, agentes de IA autorreplicantes já existem

Inteligência Artificial

Sim, agentes de IA autorreplicantes já existem

Em menos de um ano, a taxa de sucesso em testes de autorreplicação saltou de 6% para 81%. O tempo médio de detecção nas empresas ainda é de 10 dias.

O efeito bumerangue das demissões por IA: empresas que cortaram estão recontratando (e pagando mais caro)

Inteligência Artificial

O efeito bumerangue das demissões por IA: empresas que cortaram estã...

Uma onda de organizações que demitiu em nome da IA está refazendo o caminho, só que agora com custos 27% maiores, equipes que perderam a confiança na liderança e o conhecimento institucional que foi embora junto com os funcionários

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs estão preocupados)

Inteligência Artificial

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs e...

Mais da metade dos CEOs ouvidos pelo BCG diz que seus conselhos confundem narrativa midiática com realidade operacional da IA; 60% acreditam que estão sendo pressionados a agir rápido demais

O que a IA, educação e talentos representam para a SAS, segundo o COO Gavin Day

Inteligência Artificial

O que a IA, educação e talentos representam para a SAS, segundo o CO...

A empresa, que investe em educação de colaboradores e clientes sobre IA, se apoia em uma cultura construída ao longo de cinco décadas para se tornar diferencial num mercado em consolidação.