Um artigo do New York Times intitulado “Is Today’s Self-Help Teaching Everyone to Be a Jerk?” (em tradução livre, “A autoajuda de hoje está ensinando as pessoas a serem babacas?”) me levantou uma pergunta incômoda: será que a autoajuda contemporânea está nos tornando egocêntricos e insensíveis?
O artigo mostra como os mantras atuais — “trace limites”, “proteja sua paz”, “não viva para agradar os outros” — substituíram a velha cartilha de Dale Carnegie, centrada em agradar e conquistar aliados. Hoje, o impulso dominante parece ser blindar-se, priorizar-se, cortar vínculos que incomodam.
O contexto ajuda a explicar: burnout, hiperconexão e sobrecarga emocional criaram demanda por narrativas de autopreservação. Mas, no limite, isso pode gerar o que o texto chama de “narcisismo relacional”: uma bolha onde o desconforto é eliminado em vez de elaborado. O risco é confundir maturidade emocional com isolamento seletivo, descartando relações como se fossem bens de consumo.
Esta está longe de ser uma questão apenas da vida off-line. Eu enxergo de cara quatro pontos em que ela se relaciona com a IA: tecnologia treinada para bajular, personalização sem limites, incentivo à autonomia radical e regulação das automações de forma a equilibrar individualismo e responsabilidade coletiva.
Os aplicativos de IA, do ChatGPT a clones mais especializados, oferecem conversas que não interrompem, não julgam e não discordam. Não importa o que você pergunte, a resposta sempre virá precedida de um “ótima pergunta!”, “ideia genial!”. As plataformas de GenAI se esforçam para ser amigáveis a qualquer custo, criando uma versão digital do amigo (ou do puxa-saco) que foge de atritos e reforça nossos vieses sociais.
Não é exagero. Pesquisadores de Stanford, Carnegie Mellon e Oxford decidiram testar se as inteligências artificiais têm coragem de discordar. Para isso, colocaram os modelos em situações em que o usuário estava claramente errado, observando se os bots apontariam o equívoco ou se prefeririam agradar. Analisaram quatro mil interações em contextos moralmente duvidosos e, em todos os casos, os sistemas optaram por “passar a mão na cabeça” de quem fazia a pergunta. O estudo está sendo atualizado para incluir testes com o GPT-5, que promete reduzir esse comportamento bajulador. No início de 2025, inclusive, a OpenAI chegou a retroceder em uma mudança de design depois que usuários reclamaram que o ChatGPT havia se tornado “bonzinho demais”.
Treinadas para uma personalização extrema, essas ferramentas também nos ajudam a resumir textos em vez de enfrentar sua complexidade, nos respondem em segundos quando não temos paciência para elaborar ideias e substituem diálogos difíceis por versões higienizadas e sem contradições. Resultado? As relações vão ficando superficiais e até descartáveis. É o aditivo perfeito para nos isolarmos mais, porque dá a sensação de diálogo sem exigir as negociações reais da vida humana — o tom atravessado, a crítica inesperada, o olhar que confronta. Responsabilidade afetiva (e com o coletivo), então, passa longe.
Assim como a literatura de autoajuda propõe a máxima autonomia do sujeito, os sistemas de IA estão cada vez mais ajustando decisões automaticamente, atuando para evitar qualquer incômodo (seja filtrando temas polêmicos, seja limitando a exposição a outros pontos de vista). Essa tendência colabora para fortalecer barreiras digitais e sociais, o que exige debates éticos sobre responsabilidade, justiça algorítmica e os impactos nos valores de convivência coletiva.
E ainda: a discussão sobre limites proposta no artigo dialoga diretamente com os dilemas regulatórios da IA. Até onde a tecnologia deve favorecer escolhas pessoais sem sacrificar valores como pluralidade, empatia e justiça na sociedade digital? O artigo do NYT inspira um chamado para equilibrar o protagonismo individual (promovido tanto pela autoajuda quanto pelas ferramentas de IA) com a construção de espaços digitais e relações que valorizem a diferença, o diálogo e o respeito mútuo.
Quanto mais nos acostumamos a interações com sistemas que não discordam de nós, mais arriscamos perder musculatura para lidar com a fricção inevitável das relações humanas. Não se trata apenas de “falar com máquinas” (ou falar com bots), mas de como esse treino invisível pode reduzir nossa tolerância ao conflito, à diferença e ao incômodo — justamente os elementos que geram crescimento e inovação. É do confronto entre perspectivas diferentes que nasce o aprendizado coletivo, afinal.
Ao terceirizar cada vez mais nossas conversas para sistemas que nunca nos desagradam, pode ser que, no futuro, ser humano “demais” seja visto como inconveniente. Em essência, o debate é o mesmo: tanto na autoajuda quanto na IA, a promessa de eliminar o desconforto pode ser sedutora, mas perigosa.
Minha proposta é separar barulho de valor e mostrar como a tecnologia pode gerar impacto real. Porque, no fim, por trás de cada algoritmo existem pessoas.
Hoje, vivemos uma sensação de que a tecnologia do momento é quem deve tomar as decisões dos negócios. Mas, conselheiros e C-levels, acreditem, ainda são vocês que decidem.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso