Confiar na Inteligência Artificial em vez de contar com seu conhecimento pode estar atrofiando suas habilidades de pensamento crítico. Essa é a conclusão de um estudo da Carnegie Mellon e da Microsoft, que sugere que quanto mais as pessoas usarem e dependerem das respostas da IA, sem questionar ou validar a resposta, menos envolverão seu raciocínio analítico.
A pesquisa publicada no paper “The Impact of Generative AI on Critical Thinking” identificou que a automação de tarefas cognitivas pela GenAI não apenas reduz o esforço necessário para resolver problemas complexos, mas também altera a natureza do pensamento crítico. A análise dos dados revelou que profissionais que confiavam mais nas respostas da IA eram menos propensos a questionar ou validar as informações fornecidas. Por outro lado, aqueles com maior confiança em suas próprias habilidades mostraram um maior nível de escrutínio ao lidar com respostas geradas pela IA.
“Especificamente, a maior confiança na GenAI está associada a menos pensamento crítico, enquanto a maior autoconfiança está associada a mais pensamento crítico. Em termos qualitativos, a GenAI muda a natureza do pensamento crítico para a verificação de informações, a integração de respostas e a administração de tarefas”, cita o estudo.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
A psicóloga de Harvard defende que líderes precisam aprender a enxergar melhor no escuro — e que a falsa positividade corporativa tem outro nome: negação
Dois estudos mapeiam os tipos de conselheiros que comprometem a governança corporativa e propõem, cada um a partir de sua perspectiva, formas práticas de lidar com eles
O lançamento dos interaction models pela Thinking Machines redefine a fronteira entre homem e máquina. Mas cuidado: a tecnologia que resolve o gargalo técnico pode ser a mesma que atrofia as habilidades sociais do seu time.
Pesquisa com mais de mil profissionais mostra que empresas continuam investindo em sustentabilidade, mas trocaram o discurso público pelo progresso silencioso
Pesquisa do MIT SMR e do BCG responde: não! Painel com 31 especialistas globais indica que a supervisão humana em IA exige mais do que verificar outputs: exige julgamento em todo o ciclo de vida dos sistemas.
Em menos de um ano, a taxa de sucesso em testes de autorreplicação saltou de 6% para 81%. O tempo médio de detecção nas empresas ainda é de 10 dias.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso
