s
ENTREVISTA

Contexto é o grande motor da IA corporativa

E visão computacional, gestão do conhecimento e governança são as verdadeiras alavancas competitivas, afirma Marcelo Noronha, CEO da Mr. Turing.

Todo mundo repete que “dados são o novo petróleo”, mas, quando você pergunta onde esses dados estão, as respostas são sempre vagas: “Está num SQL.” “Está no ERP.” “Está num drive.” Uma fragmentação que, quase sempre, torna a informação invisível ou inacessível. Um problema que Marcelo Noronha, CEO da Mr.Turing, conhece bem.

“Toda empresa acredita que tem petróleo, mas quando você abre o poço só encontra lama”, diz ele. “As empresas não sabem o que sabem. Na prática, metade dos dados não existe, outra parte está duplicada e o restante não tem contexto. E, sem contexto, a IA só amplifica a confusão.”

“Lideranças corporativas falam de IA como se fosse uma entidade mágica, quando, no fundo, é um conjunto de técnicas que dependem de uma base bem organizada. Quando você joga um documento mal estruturado, com tabela em PNG, gráfico deformado, anotação no rodapé, não há modelo de linguagem que dê conta. IA não é sobre potência; é sobre estrutura”, afirma.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

Para Noronha, a próxima fronteira da competitividade está justamente na capacidade das empresas de ativar o conhecimento que já possuem, mas que não conseguem acessar. A Mr.Turing nasce dessa crença — e se reposiciona a partir dela. Desde 2018, quando Noronha passa de cliente a sócio, a empresa aplica NLP, visão computacional e técnicas avançadas de anotação para reconstruir o contexto perdido nos silos corporativos. De 2022 para cá, com o surgimento e a popularização da IA generativa, assume também o papel de “laboratório de IA terceirizado” para corporações que precisam entender, integrar e proteger seus dados.

“Crescemos defendendo essa tese e estamos nos consolidando ao levar a IA para dentro da infraestrutura dos clientes, literalmente — com entregas rápidas, personalização total, respeito à governança e transformação de dados espalhados em vantagem competitiva duradoura”, explica Noronha.

No fundo, a evolução da Mr. Turing acompanha a maturidade do mercado: menos discursos, mais arquitetura; menos promessa, mais eficiência. “As empresas estão começando a entender que, quando a IA entende o contexto de negócio, vira ferramenta de decisão, não de marketing”, opina o executivo.

Nesta entrevista, Noronha detalha como a IA vem redefinindo a gestão do conhecimento; por que empresas que confiam somente em interfaces de chat ou APIs avulsas estão condenadas a soluções superficiais; e como levar IA para a infraestrutura dos clientes se tornou o divisor de águas que transformou a Mr. Turing em uma parceira estratégica de organizações como a SUSEP e a Ambima e de corporações como Itaú, Consórcio Magalu, Dot Digital, Basf, CNH, Embraer e Volkswagen.


O início

“Trabalho com tecnologia faz bastante tempo mesmo. Me formei em Processamento de Dados, depois em Marketing. Fiz um MBA em Gestão de TI e depois um MBA em Gestão Empresarial. Toda a minha vida tive essa dualidade entre tecnologia e comunicação. Gosto do assunto técnico, mas gosto muito também de explicar, vender, mostrar.

Venho trabalhando com processamento de documentos por imagem desde 2004. Processava documentos, armazenava documentos, mas sempre faltava o contexto. O documento ficava mudo. E quando você ia procurar, era inútil. As empresas tinham tudo, mas nada ao mesmo tempo.

Os sistemas faziam automação, mas não inteligência. Eu tinha sempre a sensação de ‘fiz tudo certo, mas não serviu para nada’.

Eu tinha scanners que processavam 550 documentos por minuto, fazia OCR, mas, na hora de achar alguma coisa, nada. Era como olhar para um arquivo morto digital.

Da automação ao contexto

“Trabalho com tecnologia faz bastante tempo mesmo. Me formei em Processamento de Dados, depois em Marketing. Fiz um MBA em Gestão de TI e depois um MBA em Gestão Empresarial. Toda a minha vida tive essa dualidade entre tecnologia e comunicação. Gosto do assunto técnico, mas gosto muito também de explicar, vender, mostrar.

Venho trabalhando com processamento de documentos por imagem desde 2004. Processava documentos, armazenava documentos, mas sempre faltava o contexto. O documento ficava mudo. E quando você ia procurar, era inútil. As empresas tinham tudo, mas nada ao mesmo tempo.

Os sistemas faziam automação, mas não inteligência. Eu tinha sempre a sensação de ‘fiz tudo certo, mas não serviu para nada’.

Eu tinha scanners que processavam 550 documentos por minuto, fazia OCR, mas, na hora de achar alguma coisa, nada. Era como olhar para um arquivo morto digital.

A revolução silenciosa da gestão do conhecimento

A IA começou a aparecer com mais força em 2016. Eu já trabalhava com algoritmos, com engines de OCR, mas não era algo que você pudesse usar do jeito que dá para usar hoje.

As pessoas falavam de IA como uma entidade, como se fosse uma coisa única, e não como várias técnicas — Machine Learning, Deep Learning, Visão Computacional. Nessa época, conheci o pessoal da Data H e da Mr. Turing. Eles usaram Processamento de Linguagem Natural [NLP, na sigla em inglês] para resolver um problema que eu tinha na empresa na qual eu trabalhava.

Ali eu comecei a perceber que o futuro não seria automação, seria contexto. E entendi que o mercado brasileiro tinha a dor, tinha a demanda, mas não tinha método. O problema era sempre o mesmo: dados espalhados e zero contexto.

Então me tornei sócio da Mr.Turing, comecei a estudar mais a fundo a técnica de NLP e a usar minha rede de relacionamento para explicar o que dava para fazer com aquilo. Na época, todo mundo só conhecia NLP pela Alexa e pela Siri. O pessoal perguntava: ‘Mas o que você vai fazer com isso?’ E eu dizia: ‘A gente pode fazer gestão do seu conhecimento.’

No fim de 2020, início de 2021, a SUSEP virou nossa primeira cliente. Isso me animou a trabalhar com o mercado financeiro. Em 2022, com a tese já rodando também em um grande banco, fomos aceitos pela maior aceleradora de Toronto, a DMZ, da Toronto Metropolitan University. Antes de o ChatGPT aparecer.

Participando do processo de aceleração, a gente começou a olhar a empresa de maneira diferente. E quando a OpenAI apresentou seu chatbot, ficou muito mais fácil explicar o que fazíamos: ‘Sabe aquelas perguntas que você faz para o modelo público? Você pode perguntar para o sistema da sua empresa. Fazer gestão dos dados espalhados em silos. Então a brincadeira virou coisa séria. E a gente começou a trazer clientes como CNH, Consórcio Magalu, Dot Digital Group, Basf, e a crescer.

Quando eu me juntei à Mr. Turing éramos dois. Após uns três meses, trouxemos um PhD, o Vinícius, porque a gente precisava entender cientificamente até onde dava para ir com a técnica. “Ela está madura mesmo para a gente trabalhar assim? O que o mercado científico diz?”. No final de 2022, já éramos sete pessoas. Hoje somos 12 pessoas e sete clientes grandes.

Evangelização e maturidade

Tem muito guru falando de IA de maneira rasa. A gente tem números assustadores: muita gente tentando usar IA e 95% falhando. Por quê? Porque antes de pensar na tecnologia é preciso pensar no problema a ser resolvido.

A primeira pergunta que fazemos é: ‘Qual é a sua dor?’ A segunda: ‘A IA pode trabalhar nessa dor?’ Terceira: ‘A empresa tem dados para dar para a IA?’ Quarta: ‘Consegue integrar, tem conectores, APIs?’ Quando você chega na sétima pergunta, a pessoa já está desmotivada. ‘Preciso de tudo isso para usar IA?’.

As lideranças veem gente na internet dizendo que é só plugar aqui, jogar o dado ali e pronto. Mas se o sujeito tenta jogar um documento de mil páginas num modelo público, ele não resolve o problema. Além disso, em B2B, você tem que criar todos os guard-rails para que um modelo de terceiro não vá para fora buscar informação nem leve o seu conhecimento para fora.

Desde que começamos a usar IA para gestão do conhecimento encontramos barreiras fortes. LGPD, marco da IA, agora ISO 42001…

Então, para entrar num desafio para provar um conceito, a gente precisa responder umas 500 perguntas antes de fazer qualquer coisa.

Outra coisa que eu sempre tento explicar é que máquinas trabalham com matemática e estatística. Se você dá o dado e a direção, a IA trabalha estatisticamente. Se você não sabe direcionar o que quer, estatisticamente ela vai te trazer algo baseado na sua pergunta que não é o que você precisa.

A máquina não alucina. A gente é que não sabe perguntar. Muita gente ainda acredita que a IA é sobre ter respostas perfeitas. Eu acredito que o jogo está nas perguntas certas.

IA não substitui repertório, maturidade ou visão de contexto. Ela multiplica aquilo que você já sabe — seja bom ou ruim. O diferencial hoje não é decorar respostas, mas saber explorar nuances, experiências e aprendizados que só a prática real entrega.

Outra confusão grande era explicar dado estruturado, semiestruturado e não estruturado. Hoje a máquina consegue ler sem estrutura. Mas, ainda assim, é preciso mostrar que o modelo consegue receber o “texto que você tiver” e entender contexto, desde que você prepare minimamente o pipeline.

Visão computacional e pipeline estruturado

Aí entra um pedaço importante do que a gente faz hoje. Documentos modernos são um caos visual: cheios de gráficos, tabelas, infográficos, elementos em imagem. Se você simplesmente joga isso num modelo de linguagem, ele quebra.

Começamos a usar muita visão computacional para dizer para a máquina: isto é um cabeçalho, isto é título, isto é parágrafo, isto é tabela, isto é objeto no parágrafo. Começamos a anotar, anotar, anotar. Hoje, no Brasil, a gente deve ter uma das maiores bases anotadas de visão computacional aplicada a documentos.

Na Mr. Turing nunca damos o documento direto pro LLM. Passamos antes pela visão computacional, o estruturamos em linguagem de máquina e só depois entregamos para modelo de linguagem. Exatamente como um humano faz: primeiro bate o olho, entende o layout, depois interpreta.

Além de documentos, começamos a entrar em áudio, vídeo, mensagens — integrações com WhatsApp, Slack etc. Porque o conhecimento é muito fluido dentro de uma empresa. Às vezes você tem o contrato, mas o “porquê” da negociação está no e-mail, no WhatsApp, em uma reunião gravada.

Se você tem capacidade de processar todo tipo de mídia, você consegue ligar tudo: ver a proposta, ver quem negociou, como foi, quais concessões foram feitas. O conhecimento está ali.

O divisor de águas

O caso da CNH é muito legal. A gente entrou para fazer algo simples: capturar conhecimento sobre os tratores. Começamos com a marca Case, com um modelo T80. Imagina o manual de um trator — enorme, traduzido em nove idiomas. Pegamos o manual em inglês, processamos, criamos a Maia, o assistente.

Primeiro, a Maia interagiu com base no manual. Depois, fomos acrescentando histórico de problemas de campo, registros de mecânico e engenheiro. Conhecimento que não consta no manual. A Maia foi ficando “expert” no trator. Aí colocamos outros modelos, peças, e fomos robustecendo.

No começo, a gente usava Alexa para voz, conectando o modelo à nuvem, para interagir com a Maia. Este ano, fizemos uma virada importante: colocamos a Maia offline, sem internet, num servidor pequeno, com GPU, local. A ideia é que, no limite, a Maia esteja embarcada no trator no meio do campo, para interação offline com o operador do trator.

Uma colheitadeira tem centenas de funções, o cara só aprende errando, quebrando. Se você tem a Maia na máquina, ela pode avisar: “Se você fizer isso, vai fundir o motor”, ou “você está há 3 horas com a máquina ligada, precisa desligar”.

Isso só foi possível porque, ao longo do tempo, começamos a perceber uma certa resistência das empresas a colocar dados na nossa infraestrutura, por causa de LGPD, auditoria, ISO etc. Então, passamos a tratar cada cliente enterprise como parceiro de projeto.

Uma virada estratégica no modelo e negócio: se o dado não pode sair, eu entro.

Entramos na infraestrutura deles, com a permissão deles, e construímos lá dentro, on-premise, tudo o que ele teria na nossa infraestrutura.

Os resultados

Ano passado, crescemos 41% por causa dessa estratégia; este ano já bateu 85% antes de o ano acabar. A expectativa é dobrar. Tem cliente que olha o resultado e fala “não é possível”. Teve um caso num grande banco em que entregamos em 45 dias o que prometemos em 60. E 60 já era um prazo bem curto considerando outras experiências da equipe responsável.

Pessoalmente, não acredito em IA B2B como commodity. Uma coisa é B2C, onde você consegue criar um produto meio “tamanho único”, e escalar. Mas em B2B, enterprise, não tem como o mesmo produto servir igual para Bradesco, Itaú, BMG, BTG, Santander. Cada banco tem seu público, cultura, processo.

O SaaS “puro” vai ficar cada vez mais para o pequeno e médio, que não tem infraestrutura, nem dinheiro para customizar. O enterprise vai querer algo dele, dentro da infra dele.

O projeto automotivo com a Volkswagen Caminhões e Ônibus é um exemplo disso. É um projeto grande, que vai até 2027, para cobrir o ciclo de vida de caminhões, ônibus e vans. Hoje, mudar a plataforma de um caminhão leva sete anos. Eles faziam estudos comparando concorrência, coletando informação manualmente. A capilaridade era pequena: coisa de 270 fontes contra o potencial de 30 mil.

Com a nossa versão beta, o tempo para ter segurança de decisão estratégica caiu de cinco anos de coleta para três, com assertividade 80% maior. Isso dá mais tempo para pensar na fábrica, supply chain, materiais. E supply chain é um tema gigantesco pós-pandemia.

Erros do mercado

Tem uma coisa que considero um erro do mercado: quase todo mundo começa usando IA Generativa para atendimento ao cliente, de fora para dentro. Para mim, isso está invertido. Esse tipo de tecnologia tem que ser de dentro para fora.

Seus principais usuários estão em casa: quem conhece a empresa, navega nela todo dia. Portanto, as primeiras implementações devem ser internas. Você treina a máquina com o uso interno, com o atendente, com o time de operações; depois você a coloca na ponta com o cliente.

Os usuários internos são sempre os primeiros a ensinar a IA. É assim que ela aprende o negócio.

Um exemplo é o Consórcio Magalu: lá, a IA (a Malu) ajuda os atendentes, não o cliente diretamente. Os atendentes começaram a usar a Malu para outras tarefas também — redigir comunicados, organizar informação. Quando eles pegam a malícia, a coisa vira um copiloto.

Tem um outro ponto que eu não abro mão: decisão e julgamento são inegociáveis. Você não pode transferir isso para máquina. Se você passa essas duas coisas para IA, acabou.

Outro tema importante é a qualidade da informação na internet. Muita coisa que está online já foi gerada por máquinas, com textos de marketing, posts em massa. O modelo volta para a internet para aprender e acaba aprendendo com o que ele mesmo ajudou a gerar.

A gente precisa saber separar o que é ruído, o que é duplicado e o que realmente é fonte confiável. É por isso que insisto: a maior parte do conhecimento útil está nas empresas, não na internet. E muita coisa que estava na internet se perdeu.

Sobre o futuro: tem duas coisas que vejo como inevitáveis, mas sem previsão exata de prazo. A primeira é a aceleração com computação quântica. Já existem vários computadores quânticos aparecendo; como toda evolução desse tipo, isso vai acelerar o aprendizado dos modelos. Antes a gente tinha informação, mas não tinha capacidade de processamento.

A segunda é a AGI, a inteligência geral. Ela está por aí no horizonte de 3, 5, 10 anos — é difícil cravar — mas o ponto é que o volume de pesquisa vai explodir. A gente é ligado à Toronto Metropolitan University e à UFG, um centro de excelência em IA no Brasil, e mesmo esses centros já não dão vazão à quantidade de paper novo. Com computação quântica, vai chover paper, inclusive escrito por IA.

As empresas não vão ter tempo nem gente para digerir tanta novidade. Elas vão precisar de um laboratório de IA forte.. E dificilmente vão conseguir construir isso do zero, rápido. Aí entra a nossa tese: ser o laboratório de IA dessas empresas.

A gente cresceu no bootstrap. Na raça. Mas uma coisa que a gente aprendeu a fazer bem foi captar fomento para pesquisa. A gente queria projetos para estudar a fundo técnicas de PLN, então levantamos recursos da Embrapii e FINEP. Pegamos quatro Embrapis, estamos no quinto agora; deixo muita gente júnior dentro da Embrapii evoluindo no projeto e depois tento trazer para a empresa. Já, em fomento, temos um FINEP de R$ 1 milhão e outro FINEP Rota 2030 de R$ 4,7 milhões.

No total, captamos algo como R$ 9,8 milhões em recursos de P&D. Não é dinheiro em caixa para queimar, é dinheiro carimbado em projetos. Justifico o projeto — “extração de entidades”, por exemplo, 18 meses, seis recursos. Executo, entrego a pesquisa, construo base anotada, entendo a técnica mais a fundo e depois provo: “este foi o resultado científico que tive”. Isso faz muito sentido para quem quer ser laboratório de IA para os outros.

Para fechar: o que a gente oferece hoje é isso — pesquisa e desenvolvimento profundo em IA aplicada, acoplada a uma capacidade de entrar na realidade do cliente, na infraestrutura dele, com resultado entregue em semanas, não em anos. IA sem hype, só entrega. Sem guru, sem promessa vazia.”

Contexto é o grande motor da IA corporativa

Entrevista

Contexto é o grande motor da IA corporativa

E visão computacional, gestão do conhecimento e governança são as verdadeiras alavancas competitivas, afirma Marcelo Noronha, CEO da Mr. Turing.

Criatividade é um músculo – e a IA é o novo acelerador

Entrevista

Criatividade é um músculo – e a IA é o novo acelerador

Professor emérito da Wharton, Jerry Wind afirma que desafiar modelos mentais é a base da criatividade e que a IA, usada como assistente humano-centrado, amplia – e não substitui – a capacidade de imaginar, resolver problemas e transf...

TCS aposta no Brasil para acelerar inovação com centro global no Insper

Entrevista

TCS aposta no Brasil para acelerar inovação com centro global no Ins...

Com investimento de R$ 50 milhões e acesso à rede global de pesquisadores da TCS, o novo centro instalado no Insper acelera a co-inovação entre empresas, startups e universidades, conectando desafios locais a soluções globais, como co...

“A tecnologia não é mágica, ela potencializa o humano”

Entrevista

“A tecnologia não é mágica, ela potencializa o humano”

Amanda Andreone, diretora-geral da Genesys no Brasil, explica como a Inteligência Artificial redefine o papel humano no CX e transforma empatia em vantagem competitiva.

Transformação digital com tempero local

Entrevista

Transformação digital com tempero local

Com a plataforma EIA, a Ajinomoto do Brasil transforma seu modelo de gestão digital e amplia a criação de valor econômico e social. Alexandre Telles, diretor da companhia, explica o conceito.

“CISOs do futuro entendem de IA tanto quanto de risco”

Entrevista

“CISOs do futuro entendem de IA tanto quanto de risco”

Omar Khawaja, VP de Segurança e Field CISO da Databricks, veio ao Brasil para lançar o Data Intelligence for Cybersecurity. Nessa entrevista, ele fala sobre a relação de CISOs com a IA