A OCDE (Organização para a Cooperação e Desenvolvimento Econômico) está desenvolvendo um conjunto de indicadores para descrever o que a IA pode e não pode fazer em relação a diferentes áreas do desempenho humano. O conjunto completo não será divulgado antes do final de junho. Mas o primeiro rascunho ficou pronto.
Os indicadores são: Linguagem; Interação Social; Resolução de Problemas; Criatividade; Metacognição e Pensamento Crítico; Conhecimento, Aprendizagem e Memória; Visão; Manipulação; e Inteligência Robótica. E medem o desenvolvimento da IA a partir de uma escala de cinco níveis, em que as capacidades mais desafiadoras para sistemas de IA estão no topo. Cada nível inclui uma breve descrição dos tipos de capacidades que os sistemas de IA naquele nível podem executar com precisão e consistência, desde o passado até um futuro hipotético em que a IA possa reproduzir todos os aspectos humanos de cada capacidade.
Para ser classificado em um determinado nível, um sistema de IA deve possuir de forma consistente e confiável a maioria dos aspectos da capacidade descrita naquele nível. Por exemplo, os LLMs foram classificados no limiar entre os níveis 2 e 3 na escala de Linguagem. Possuem muitos aspectos da capacidade linguística descritos no nível 3, mas são prejudicados por sua incapacidade de se envolver em raciocínio analítico bem estruturado, sua tendência a “alucinar” e gerar informações incorretas e sua incapacidade de aprender dinamicamente.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Quatro lançamentos recentes — GPT-5, GPT-OSS, Genie 3 e Claude Opus 4.1 — mostram que a disputa não é mais por modelos maiores, mas por modelos mais úteis.
Mais seguro, mais barato e com novos truques agênticos, modelo continua longe da AGI e leva OpenAI a enfrentar críticas no lançamento.
Enquanto a IA avança, a amnésia digital dos modelos permanece um gargalo. Mas soluções já estão surgindo — de cofres pessoais de memória a plugins especializados.
Deepfakes e phishing por IA estão entre os principais vetores. Violação com IA encurta tempo e amplia escala de ataque
Relatório da IBM mostra que o custo médio é de R$ 7,19 milhões por violação. Mais de 60% das empresas não têm política de uso e uma em cada 6 violações usam IA para atacar organizações
Crie um conselho consultivo com personas geradas por IA para tomar decisões mais estratégicas, com clareza sob demanda e diversidade de pensamento
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso