s
O uso crescente da IA no ambiente de trabalho levanta uma questão crucial: ela impulsiona a criatividade ou mina a capacidade de análise e inovação? (Crédito: Freepik)
INTELIGÊNCIA ARTIFICIAL

IA Generativa e o risco da atrofia cognitiva: Estamos perdendo nossa capacidade de pensar?

Estudos mostram que confiar cegamente na IA pode reduzir a habilidade humana de questionamento e tomada de decisões. Saiba como profissionais e empresas podem evitar essa armadilha

Por Soraia Yoshida 14/02/2025

Confiar na Inteligência Artificial em vez de contar com seu conhecimento pode estar atrofiando suas habilidades de pensamento crítico. Essa é a conclusão de um estudo da Carnegie Mellon e da Microsoft, que sugere que quanto mais as pessoas usarem e dependerem das respostas da IA, sem questionar ou validar a resposta, menos envolverão seu raciocínio analítico.

A pesquisa publicada no paperThe Impact of Generative AI on Critical Thinkingidentificou que a automação de tarefas cognitivas pela GenAI não apenas reduz o esforço necessário para resolver problemas complexos, mas também altera a natureza do pensamento crítico. A análise dos dados revelou que profissionais que confiavam mais nas respostas da IA eram menos propensos a questionar ou validar as informações fornecidas. Por outro lado, aqueles com maior confiança em suas próprias habilidades mostraram um maior nível de escrutínio ao lidar com respostas geradas pela IA.

“Especificamente, a maior confiança na GenAI está associada a menos pensamento crítico, enquanto a maior autoconfiança está associada a mais pensamento crítico. Em termos qualitativos, a GenAI muda a natureza do pensamento crítico para a verificação de informações, a integração de respostas e a administração de tarefas”, cita o estudo.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

A IA responsável pode eliminar a supervisão humana?

Inteligência Artificial

A IA responsável pode eliminar a supervisão humana?

Pesquisa do MIT SMR e do BCG responde: não! Painel com 31 especialistas globais indica que a supervisão humana em IA exige mais do que verificar outputs: exige julgamento em todo o ciclo de vida dos sistemas.

Sim, agentes de IA autorreplicantes já existem

Inteligência Artificial

Sim, agentes de IA autorreplicantes já existem

Em menos de um ano, a taxa de sucesso em testes de autorreplicação saltou de 6% para 81%. O tempo médio de detecção nas empresas ainda é de 10 dias.

O efeito bumerangue das demissões por IA: empresas que cortaram estão recontratando (e pagando mais caro)

Inteligência Artificial

O efeito bumerangue das demissões por IA: empresas que cortaram estã...

Uma onda de organizações que demitiu em nome da IA está refazendo o caminho, só que agora com custos 27% maiores, equipes que perderam a confiança na liderança e o conhecimento institucional que foi embora junto com os funcionários

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs estão preocupados)

Inteligência Artificial

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs e...

Mais da metade dos CEOs ouvidos pelo BCG diz que seus conselhos confundem narrativa midiática com realidade operacional da IA; 60% acreditam que estão sendo pressionados a agir rápido demais

O que a IA, educação e talentos representam para a SAS, segundo o COO Gavin Day

Inteligência Artificial

O que a IA, educação e talentos representam para a SAS, segundo o CO...

A empresa, que investe em educação de colaboradores e clientes sobre IA, se apoia em uma cultura construída ao longo de cinco décadas para se tornar diferencial num mercado em consolidação.

CAIO virou cargo estratégico

Inteligência Artificial

CAIO virou cargo estratégico

Mas a maioria das empresas ainda não sabe o que fazer com ele. Sua ascensão expõe um paradoxo: a posição cresce três vezes mais rápido que a capacidade de usá-la para transformar o negócio de fato