s
IA SEM HYPE

Depois do encantamento, os riscos

Em 2025, tivemos pressa. Mas 2026 inaugura a temporada da responsabilidade digital para minimizar riscos

Por Ana Zamper 19/12/2025

Às vezes eu me sinto dentro de “2001: Uma Odisseia no Espaço”, vivendo em um futuro que encanta e assusta ao mesmo tempo. Este ano foi marcado pela corrida ao ouro, ou melhor, à IA. Era uma experimentação desordenada, um desespero para escalar, uma despreocupação com a regulamentação que parece que, diante de tanto encantamento, os riscos foram todos esquecidos.

Mas 2026 é o ano da realidade. Não porque o mundo ficou mais perigoso, mas porque finalmente admitimos que estamos cercados por camadas de tecnologia que já não controlamos. A euforia dos protótipos brilhantes de IA dá lugar à ansiedade do “vai dar ruim”.

No SXSW London, ouvi algo que segue ecoando. Inteligência Artificial é fascinante, mas exaustiva. A frase revela mais do que parece: o futuro exige fôlego. Em 2026, os riscos deixam de ser isolados e passam a ser sistêmicos. Ciberataques conduzidos por IA, com perfis sintéticos mais convincentes, malware adaptativo e agentes autônomos para ataques persistentes são alguns exemplos.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

O conteúdo sintético corrói a confiança em informações, mercados e até em eleições. Uma pressão inédita se dá sobre energia e infraestrutura, por causa de data centers que crescem mais rápido do que a capacidade de sustentar seu apetite. Sem contar a concentração de poder tecnológico em poucas empresas e países, que cria dependência e vulnerabilidade de escala.

Enquanto isso, já avistamos a “frontier AI”, uma IA superpoderosa ainda em estudo, que pode oferecer ameaças que nem imaginamos em áreas como saúde e gestão e até tomar atitudes que ninguém pode prever. Já passou da hora de implementarmos uma agenda regulatória.

O maior risco: as decisões humanas

Conselhos seguem aprovando iniciativas “estratégicas” sem perguntar de onde vêm os dados, quem responde por eles e quais vieses carregam. O consumidor já começou a cobrar e o acionista percebeu que não existe retorno sustentável sem base confiável – e limite moral.

Nem todo ganho técnico compensa o desgaste social ou reputacional. Antes de automatizar, convém sondar: isso será percebido como repugnante? Esta due diligence ética evita rupturas culturais e perda da confiança. Performance não resolve tudo. Essa crença destrói valores no longo prazo.

No fim, a curva se inverte. Após décadas perseguindo automação, o diferencial volta a ser o humano. Como bem disse a pesquisadora Keyun Ruan, CISO da Google, “a tecnologia não decide como vai impactar a sociedade. Ela é projetada a partir do olhar sobre a sociedade”.

Propósito é o algoritmo invisível que guia a organização. E a ausência de governança nunca é invisível: ela aparece no desastre do viés estrutural, dos dados furados e das decisões enviesadas travestidas de eficiência. Transparência virou capital reputacional.

Quer saber o pior? O risco mais silencioso prospera no topo: a indiferença confortável da liderança. É o famoso “deixa para a TI resolver”, frase que deve ser aposentada ainda em 2025, se possível.

A arquitetura de dados precisa se conectar com o modelo de negócio e isso requer repertório. A ignorância digital executiva é o maior gargalo de inovação. E não adianta esperar: o futuro não pedirá espaço na pauta do conselho. Já está sentado à mesa.

Quando o risco vira vantagem competitiva

Empresas que integram IA à operação, e não apenas ao marketing, aceleram valor. Líderes que assumem responsabilidade digital e tratam cybersecurity como pilar ampliam reputação e não temem os riscos.

Afinal, 2026 será o ano do risco com propósito. O salto não será técnico. Será de liderança: curiosidade disciplinada, ética aplicada e accountability real.

O verdadeiro perigo nos próximos meses é viver a ilusão de que a IA já foi dominada. No mundo que estamos construindo, permanecer nesse lugar é correr o maior risco de todos: o de estagnar.

Ainda inspirada em Kubrick, penso que toda tecnologia que nos transforma também nos obriga a escolher que tipo de humanidade queremos levar adiante. E se for para se arriscar, que seja para evoluir.

Depois do encantamento, os riscos

IA sem Hype

Depois do encantamento, os riscos

Em 2025, tivemos pressa. Mas 2026 inaugura a temporada da responsabilidade digital para minimizar riscos

“Amores Materialistas” mostra que o bug do milênio é emocional

IA sem Hype

“Amores Materialistas” mostra que o bug do milênio é emocional

E revela o que a IA amplifica: nossa tendência de transformar tudo em métrica. Quando sentimentos entram na lógica da performance, a autenticidade passa a competir com a conveniência.

Quando a autoajuda encontra os chatbots

IA sem Hype

Quando a autoajuda encontra os chatbots

Quanto mais nos acostumamos a interações com sistemas de IA que não discordam de nós, mais arriscamos perder musculatura para lidar com a fricção inevitável das relações humanas.

Você (ainda) decide

IA sem Hype

Você (ainda) decide

Hoje, vivemos uma sensação de que a tecnologia do momento é quem deve tomar as decisões dos negócios. Mas, conselheiros e C-levels, acreditem, ainda são vocês que decidem.

Escolhas, impacto e futuro com propósito

IA sem Hype

Escolhas, impacto e futuro com propósito

Minha proposta é separar barulho de valor e mostrar como a tecnologia pode gerar impacto real. Porque, no fim, por trás de cada algoritmo existem pessoas.