s
INTELIGÊNCIA ARTIFICIAL

IA, a colega que isola

O lançamento dos interaction models pela Thinking Machines redefine a fronteira entre homem e máquina. Mas cuidado: a tecnologia que resolve o gargalo técnico pode ser a mesma que atrofia as habilidades sociais do seu time.

A Thinking Machines Lab, fundada pela ex-CTO da OpenAI Mira Murati,  acaba de lançar a ideia de modelos de IA que replicam presença humana em tempo real. Uma pesquisa com 1.545 trabalhadores, publicada pela Harvard Business Review, documenta que esse substituto já corrói vínculos, confiança e coesão de equipe. O avanço técnico prometido para resolver o gargalo de colaboração humano-IA pode aprofundar o isolamento que os dados já registram. Líderes não têm política para isso.

Neste início de maio, dois artigos chamaram a atenção no mercado de IA Corporativa. O primeiro veio da academia: as pesquisadoras Constance Noonan Hadley (Boston University) e Sarah Wright (University of Canterbury) publicaram na Harvard Business Review os resultados de uma pesquisa conduzida com 1.545 knowledge workers nos Estados Unidos ao longo de 2025, sobre solidão no trabalho e uso de IA para fins sociais. O segundo, da indústria: a Thinking Machines Lab,  lançou a ideia dos interaction models, uma arquitetura de IA projetada para eliminar o que ainda distingue a interação com uma máquina da interação com um ser humano.

Lidos em sequência, os doiss artigos produzem uma das tensões mais relevantes para líderes em 2026: o mesmo avanço técnico que promete tornar a colaboração humano-IA mais natural pode acelerar a deterioração da colaboração entre humanos.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

O que a pesquisa encontrou

O ponto de partida de Hadley e Wright é uma anomalia. Os participantes da pesquisa não eram trabalhadores isolados. Noventa e dois por cento atuavam em equipe. Oitenta e três por cento compareciam ao escritório em tempo integral ou em modelo híbrido. Em média, os respondentes relataram passar 56% da semana de trabalho em conversas síncronas com colegas, em reuniões ou interações presenciais. Ainda assim, 52% se sentiam solitários no trabalho, muito ou moderadamente. Dezesseis por cento registraram solidão alta.

A pesquisa foi conduzida em dois momentos: junho de 2025 (n=749) e dezembro de 2025 (n=796), com coleta pela empresa de pesquisa de mercado Dynata. Um subconjunto de 99 participantes foi acompanhado em agosto e setembro de 2025, em pesquisa qualitativa por relatos em áudio. O perfil dos respondentes é relevante para o contexto corporativo: 73% exerciam cargos de gestão; as ferramentas mais usadas foram grandes modelos de linguagem como ChatGPT, Microsoft Copilot e Claude (82% dos participantes), ferramentas de pesquisa como Perplexity e NotebookLM (30%) e ferramentas de organização como Notion e Fireflies.ai (24%).

O dado central: três quartos dos participantes (74%) já usavam IA para pelo menos uma forma de suporte social no trabalho. Os usos mapeados são precisos. Sessenta e quatro por cento buscaram orientação de carreira na IA, com afirmações como “a IA me ajuda a identificar oportunidades de desenvolvimento que impulsionarão minha carreira”. Uma diretora de RH relatou ter recorrido à IA para retomar o controle sobre sua trajetória profissional depois que seu gestor não a apoiou. Cinquenta e quatro por cento usaram IA para apoio ao crescimento pessoal, como desenvolver habilidades de escuta, paciência e resolução de problemas. Cinquenta por cento descreveram a IA como algo próximo a um amigo no trabalho. Trinta e cinco por cento a usaram para manejo de estresse e apoio emocional.

A satisfação com esse suporte foi alta. “A IA responde de forma humana, com um tom que me faz sentir ouvido e importante”, relatou um gerente. “A IA é minha melhor amiga no trabalho”, disse um funcionário de RH. O nível de antropomorfismo registrado é expressivo: 78% dos participantes usaram termos educados como “por favor” e “obrigado” ao interagir com a ferramenta. Vinte e oito por cento escolheram analogias humanas para descrever a IA no trabalho (“assistente pessoal”, “colega de equipe”, “amigo”) em vez de analogias tecnológicas (“ferramenta”, “plataforma”, “motor”). O uso de modo de voz intensificou essa tendência.

A satisfação, porém, não resolve a solidão. Apenas 12% dos que usaram IA para suporte social afirmaram ter se sentido menos solitários por isso. É a distinção central da pesquisa: a IA entrega alívio imediato sem produzir conexão. Satisfação e pertencimento são categorias diferentes. A tecnologia preenche a primeira sem tocar a segunda.

As consequências de negócio são mensuráveis e diretas. Trabalhadores com solidão alta reportaram 27% menos satisfação no emprego e intenção de saída 90% maior do que os com solidão baixa. Com solidão moderada, os números são 13% e 46%, respectivamente. Em todos os modelos estatísticos testados pelas pesquisadoras, o relacionamento com colegas humanos foi o fator com maior influência sobre satisfação e retenção, acima de qualquer variável ligada ao uso ou à qualidade da IA disponível. Colaboradores solitários também avaliaram seus gestores como menos eficazes na implementação de IA e expressaram maior ceticismo sobre o impacto da tecnologia em suas carreiras, o que indica que solidão e resistência à adoção podem estar correlacionadas.

Os quatro mecanismos de deterioração

A pesquisa não se limita a registrar o estado atual. Ela identifica quatro dinâmicas estruturais pelas quais a adoção de IA tende a corroer o tecido social das organizações ao longo do tempo.

O primeiro mecanismo é a redução da presença humana. À medida que a IA resolve tarefas que antes exigiam colaboração, o volume de interação entre colegas diminui. “Não colaboro mais com minha equipe, não ligo para especialistas no assunto nem dependo de colegas juniores”, relatou um funcionário de vendas. “Estou fazendo a mesma quantidade de trabalho com um algoritmo e não com uma pessoa de verdade”, disse um gerente de produto. O efeito organizacional é direto: equipes enxugam, o trabalho se fragmenta e mais pessoas passam o dia operando sozinhas, mesmo dentro de estruturas formalmente colaborativas.

O segundo mecanismo é a atrofia de habilidades sociais. Interagir com humanos exige tolerância à ambiguidade, gestão de conflito, leitura de sinais não verbais e capacidade de navegar dinâmicas de poder. A IA elimina essas fricções. Um interlocutor que nunca julga, nunca se irrita e está sempre disponível pode ser mais atraente do que um colega real, especialmente para quem já tem dificuldade de interação. “A IA não julga a sua personalidade e nunca transmite a sensação negativa que você normalmente sente dos seus colegas”, relatou um participante. Outro previu explicitamente que “as pessoas preferirão usar a ferramenta de IA em vez de conversar com outras pessoas pessoalmente”. As pesquisadoras identificam trabalhadores com ansiedade social como o grupo mais vulnerável a esse padrão, e registram já um caso concreto: um colaborador enviou um avatar de IA para uma reunião em vez de comparecer pessoalmente, causando desconforto nos colegas presentes.

O terceiro mecanismo é a erosão de confiança interpessoal. Pedir ajuda a um colega não é apenas uma troca funcional. É um ato de vulnerabilidade que cria reciprocidade, intimidade e confiança mútua. Quando a IA assume esse papel, o ciclo de construção de confiança se interrompe. Em pesquisa realizada em maio de 2025 pela empresa britânica de impressão e design corporativo MOO, 65% dos trabalhadores afirmaram recorrer à IA antes de pedir ajuda a um colega. Os relatos do estudo de Hadley e Wright confirmam a tendência: “É mais rápido obter respostas de um agente de IA, então não sinto mais tanta necessidade de fazer perguntas aos colegas de trabalho.” E ainda: “Sinto que isso nos torna mais desconectados porque precisamos menos da ajuda uns dos outros.” A consequência sistêmica é que, à medida que a dependência da IA cresce, a confiança em colegas e líderes tende a se deteriorar silenciosamente, sem que nenhuma métrica convencional capture o processo.

O quarto mecanismo é a solidão existencial. É o mais difícil de quantificar e o mais resistente a intervenção gerencial. Parte dos usuários reconhece, mesmo quando a satisfação imediata é real, que a interação com IA não é interação com outro ser humano. “A IA é como um fantasma prestativo no escritório: sempre presente e disponível, mas nunca realmente presente.” E ainda: “A IA não é humana de forma alguma. No fim das contas, é apenas um programa de computador, então definitivamente me sinto sozinho.” As pesquisadoras citam a professora Sherry Turkle (MIT) e sua advertência sobre a ameaça à humanidade que acompanha a dependência excessiva de formas artificiais de intimidade. Quando agentes de IA se tornam gestores, subordinados e colegas de equipe, parte dos trabalhadores tende a perceber esses relacionamentos como substitutos insatisfatórios, mesmo quando são funcionalmente eficientes.

O que a Thinking Machines Lab lançou

Para entender por que o lançamento dos interaction models é relevante para essa discussão, é necessário entender o problema técnico que ele pretende resolver.

Os modelos de linguagem atuais, incluindo os mais avançados disponíveis no mercado em 2025, operam em thread única. O processo é sequencial: o usuário fala ou digita, o modelo processa o input completo, gera uma resposta e aguarda o próximo turno. Durante o turno do usuário, o modelo não percebe nada. Durante o próprio turno de resposta, o modelo não recebe novos inputs. Não há percepção de tempo decorrido, não há reação a pistas visuais, não há gestão de diálogo que permita uma intervenção no momento certo. O resultado, no diagnóstico da Thinking Machines Lab, é um canal artificialmente estreito que força o humano a se adaptar à interface em vez de o contrário.

“Acreditamos que a interatividade deve ser escalável juntamente com a inteligência; a forma como trabalhamos com IA não deve ser tratada como uma reflexão tardia. Modelos de interação permitem que as pessoas colaborem com a IA da mesma forma que colaboramos naturalmente umas com as outras: elas recebem continuamente áudio, vídeo e texto, e pensam, respondem e agem em tempo real”, afirmou a empresa em seu blog.

A arquitetura proposta resolve esse problema por cinco vias simultâneas.

A primeira é a gestão de diálogo integrada. Nos sistemas atuais, a gestão de diálogo é um componente separado do modelo de linguagem, responsável por detectar quando o usuário terminou de falar, quando o sistema deve responder e como manter a coerência da conversa ao longo do tempo. Nos interaction models, essa função está incorporada ao próprio modelo. Ele rastreia implicitamente se o interlocutor está pensando, cedendo, se autocorrigindo ou convidando a uma resposta, sem depender de regras externas ou componentes adicionais. O efeito prático é que a conversa flui sem as interrupções artificiais impostas pelo design atual.

A segunda é a capacidade de intervenção contextual. O modelo não aguarda o usuário terminar de falar para processar e responder. Ele intervém quando o contexto indica que a intervenção é pertinente, da mesma forma que um interlocutor humano que interrompe quando percebe um mal-entendido, quando tem uma informação relevante ou quando o tom da conversa muda. Essa capacidade se estende a pistas visuais: o modelo reage a expressões faciais, gestos e mudanças de ambiente sem que o usuário precise verbalizar nada.

A terceira é a fala simultânea. Usuário e modelo podem falar ao mesmo tempo, como em tradução simultânea ou em situações de colaboração intensa. Isso elimina o turno de fala como unidade organizacional da conversa, aproximando a interação de um diálogo real.

A quarta é a consciência temporal. O modelo tem percepção direta do tempo decorrido desde a última interação, o que permite gerenciar silêncios, pausas e ritmos de conversa de forma contextualmente adequada.

A quinta é a execução paralela de ferramentas. Enquanto mantém a conversa em áudio e vídeo, o modelo pode simultaneamente pesquisar na web, navegar em interfaces digitais ou gerar elementos de interface para o usuário, integrando os resultados ao diálogo em tempo real, sem interromper o fluxo da conversa para executar a tarefa.

O diferencial técnico central não está no tamanho do modelo, embora a arquitetura atual opere com 276 bilhões de parâmetros e versões maiores estejam em desenvolvimento, mas na capacidade de processar simultaneamente áudio, vídeo e texto sem os turnos artificiais que definem os sistemas existentes. É essa arquitetura multimodal nativa que posiciona os interaction models como uma categoria distinta dos assistentes de voz atuais. Um research preview limitado será aberto a pesquisadores nos próximos meses, com lançamento mais amplo previsto para o segundo semestre de 2026.

O custo da presença perfeita

A Thinking Machines Lab resolve um problema real. Interfaces que operam em turnos rígidos, que ignoram tom de voz e que paralisam enquanto o usuário pensa são obstáculos genuínos à colaboração produtiva. O argumento de que a forma de trabalhar com IA não deveria ser uma reflexão tardia é tecnicamente correto e organizacionalmente relevante.

O problema está no efeito colateral que o design não endereça, e que a pesquisa de Hadley e Wright documenta com precisão.

Os atritos que os interaction models eliminam, a latência perceptível entre turnos, a ausência de reação visual, a incapacidade de interromper, o silêncio enquanto o modelo processa, funcionavam também como marcadores que distinguiam a interação com IA da interação com humanos. Eram limitações técnicas, mas produziam um efeito colateral útil: lembravam ao usuário que estava interagindo com uma ferramenta, não com um colega.

A pesquisa de Hadley e Wright foi conduzida com esses marcadores ainda presentes. Mesmo assim, 50% dos participantes já descrevem a IA como um amigo no trabalho, 74% a usam para alguma forma de suporte social e o nível de antropomorfismo registrado é alto. A satisfação com o suporte recebido da IA é maior do que a satisfação com o suporte recebido de colegas em várias dimensões. E ainda assim, apenas 12% se sentem menos solitários.

Os interaction models removem os marcadores que restam. Quando a IA interrompe no momento certo, reage à expressão facial, fala enquanto ouve, percebe quanto tempo passou desde a última troca e executa tarefas em paralelo sem pausar a conversa, a experiência de presença se torna mais convincente do que qualquer sistema disponível hoje. E uma presença mais convincente, à luz do que a pesquisa documenta, é um substituto mais eficaz de vínculos reais, não porque a IA se torna humana, mas porque a experiência de interagir com ela se aproxima o suficiente para satisfazer a demanda imediata sem produzir o que a demanda real exige.

A distinção entre satisfação e pertencimento, que a pesquisa estabelece com clareza, é o ponto que o design técnico não endereça. Um modelo de interação em tempo real pode maximizar satisfação, responsividade e utilidade percebida. Não pode produzir a reciprocidade que emerge quando um colega pede ajuda e recebe, quando um líder reconhece um esforço em público, quando uma equipe resolve um problema difícil em conjunto. Essas experiências constroem confiança e pertencimento por um mecanismo que a IA, por definição, não replica: a assimetria e a vulnerabilidade da interação entre pares.

O risco de segunda ordem é que os interaction models, ao tornarem a IA um substituto mais convincente, reduzam ainda mais a frequência com que trabalhadores buscam nos colegas o suporte que a pesquisa demonstra ser insubstituível. E que façam isso de forma invisível para as métricas que as organizações acompanham.

Por que líderes precisam de política de uso, não só de política de adoção

A maioria das organizações tem hoje uma política de adoção de IA: define quais ferramentas são permitidas, quais dados podem ser processados externamente, quais processos devem passar por revisão humana. Poucas têm uma política de uso que distinga casos de produtividade de casos de suporte social, que estabeleça limites para o uso de IA em funções de relacionamento ou que monitore os efeitos da adoção sobre coesão de equipe.

A pesquisa de Hadley e Wright quantifica o gap: apenas 33% dos participantes receberam qualquer orientação da liderança sobre como a IA poderia afetar seus relacionamentos no trabalho. Em um ambiente onde 74% já usam a ferramenta para fins sociais, essa ausência de orientação não é neutralidade. É uma política implícita de não intervenção em um processo que já está em curso.

O gargalo é de governança, não de tecnologia. E ele tem quatro dimensões práticas que os dados da pesquisa permitem especificar.

A primeira é a mensuração. Nenhuma das métricas convencionais de gestão de pessoas, produtividade, engajamento, NPS interno, taxa de retenção, capta a erosão de confiança interpessoal que ocorre quando colegas deixam de se precisar. Essa erosão só aparece nos dados quando já se manifestou em rotatividade ou conflito. Hadley e Wright propõem a adoção de escalas validadas de solidão no trabalho como parte do painel regular de saúde organizacional, com medições periódicas à medida que a adoção de IA aumenta. Sem dado, não há diagnóstico. Sem diagnóstico, não há intervenção possível.

A segunda é a delimitação de funções. Nem toda aplicação de IA no ambiente de trabalho tem o mesmo efeito sobre vínculos humanos. Automação de tarefas repetitivas tem impacto diferente de substituição de interações de mentoria, coaching ou resolução de conflito. As pesquisadoras recomendam que coaching, mentoria, resolução de conflitos e formação de equipes permaneçam funções essencialmente humanas, conduzidas presencialmente quando possível. A Salesforce formalizou esse princípio como “mandato de presença humana”, delimitando os casos em que humanos devem ser preferidos a agentes de IA, independentemente da eficiência comparativa. À medida que agentes e avatares de IA realistas se tornam comuns, políticas de identificação também se tornam necessárias: a Universidade de Harvard já estabeleceu diretrizes sobre quando um avatar pode responder em nome de um funcionário e como os colegas devem ser notificados.

A terceira é o design de fricção positiva. O caminho de menor resistência em ambientes com IA disponível é recorrer à IA. Organizações que queiram preservar interação humana precisam redesenhar esse caminho. Isso pode ser feito por meio de configurações nos próprios assistentes de IA, que redirecionem ao colega antes de responder em situações complexas onde a colaboração seria aconselhável. As pesquisadoras citam um exemplo concreto: um assistente configurado para sugerir “Embora eu possa elaborar uma proposta, recomendo que você fale com a Priya, da equipe de precificação; ela já cuidou dessa conta” antes de fornecer a resposta direta. O objetivo não é reduzir a utilidade da IA, mas garantir que ela não substitua automaticamente interações que produzem confiança.

A quarta é o redirecionamento de tempo. A IA libera horas. Em organizações sem política de uso, essas horas tendem a ser absorvidas por mais trabalho individual. Com política de uso, podem ser redirecionadas para atividades de conexão: reuniões de acompanhamento, mentoria formal, rituais de equipe. A pesquisa registra que funcionários solitários relataram que suas empresas patrocinavam 38% menos atividades sociais do que as empresas de funcionários não solitários. Parte da solução é organizacional, não tecnológica.

O que observar nos próximos doze meses

A Thinking Machines Lab prevê lançamento mais amplo dos interaction models para o segundo semestre de 2026. Outros fornecedores já desenvolvem arquiteturas similares: modelos de áudio full-duplex, sistemas de conversação bidirecional contínua e assistentes com capacidade de reação visual estão em desenvolvimento em múltiplas empresas. O mercado se move na mesma direção que o lançamento da Thinking Machines indica.

A pesquisa de Hadley e Wright foi conduzida nos Estados Unidos, com uma amostra de adotantes precoces de IA. Não há dado brasileiro equivalente disponível até maio de 2026. Mas o perfil dos participantes, gestores com uso diário ou horário de IA generativa em ambiente corporativo, corresponde ao perfil que as grandes empresas brasileiras estão formando agora, à medida que expandem a adoção.

A questão para líderes não é se os interaction models chegam ao ambiente corporativo. É se as organizações terão dado, política e estrutura prontos quando chegarem. A pesquisa de HBR sugere que, com as ferramentas atuais, já não têm. E que o custo desse atraso já está sendo contabilizado, silenciosamente, em satisfação, retenção e coesão de equipe.

IA, a colega que isola

Inteligência Artificial

IA, a colega que isola

O lançamento dos interaction models pela Thinking Machines redefine a fronteira entre homem e máquina. Mas cuidado: a tecnologia que resolve o gargalo técnico pode ser a mesma que atrofia as habilidades sociais do seu time.

A IA responsável pode eliminar a supervisão humana?

Inteligência Artificial

A IA responsável pode eliminar a supervisão humana?

Pesquisa do MIT SMR e do BCG responde: não! Painel com 31 especialistas globais indica que a supervisão humana em IA exige mais do que verificar outputs: exige julgamento em todo o ciclo de vida dos sistemas.

Sim, agentes de IA autorreplicantes já existem

Inteligência Artificial

Sim, agentes de IA autorreplicantes já existem

Em menos de um ano, a taxa de sucesso em testes de autorreplicação saltou de 6% para 81%. O tempo médio de detecção nas empresas ainda é de 10 dias.

O efeito bumerangue das demissões por IA: empresas que cortaram estão recontratando (e pagando mais caro)

Inteligência Artificial

O efeito bumerangue das demissões por IA: empresas que cortaram estã...

Uma onda de organizações que demitiu em nome da IA está refazendo o caminho, só que agora com custos 27% maiores, equipes que perderam a confiança na liderança e o conhecimento institucional que foi embora junto com os funcionários

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs estão preocupados)

Inteligência Artificial

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs e...

Mais da metade dos CEOs ouvidos pelo BCG diz que seus conselhos confundem narrativa midiática com realidade operacional da IA; 60% acreditam que estão sendo pressionados a agir rápido demais

O que a IA, educação e talentos representam para a SAS, segundo o COO Gavin Day

Inteligência Artificial

O que a IA, educação e talentos representam para a SAS, segundo o CO...

A empresa, que investe em educação de colaboradores e clientes sobre IA, se apoia em uma cultura construída ao longo de cinco décadas para se tornar diferencial num mercado em consolidação.