A Itália proibiu temporariamente o ChatGPT na semana passada, alegando que ele viola o GDPR. Os problemas alegados? A OpenAI não tem controles de idade para impedir que menores de 13 anos usem o sistema; ele pode fornecer informações imprecisas sobre pessoas; essas pessoas não foram informadas de que seus dados foram coletados; e, talvez o mais importante dos argumentos, “não há base legal” para a coleta de informações pessoais nas coleções de dados usadas para treiná-lo.
A OpenAI concordou imediatamente com a proibição, dizendo que trabalharia com os reguladores italianos para “educá-los” sobre como o software de IA da OpenAI é treinado e opera. “É claro que cedemos ao governo italiano e paramos de oferecer o ChatGPT na Itália (embora pensemos que estamos seguindo todas as leis de privacidade)”, twittou seu CEO, Sam Altman. A política de privacidade da OpenAI não menciona diretamente suas razões legais para usar informações pessoais em dados de treinamento, mas diz que se baseia em “legítimo interesse” quando “desenvolve” seus serviços.
Ato contínuo, o órgão regulador de proteção de dados do Reino Unido seguiu a proibição da Itália, com um aviso de que as empresas também poderiam entrar em conflito com leis específicas da Grã-Bretanha se não cuidarem da forma como desenvolveram e usaram IA Generativa. E emitiu um checklist para ajudá-las a garantir a conformidade. Agora, o Escritório da Comissão de Privacidade do Canadá anunciou uma investigação sobre a Open AI, em resposta a uma queixa de privacidade contra o ChatGPT.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Agentes prometem escala e eficiência, mas expõem limites organizacionais. O diferencial está na capacidade das empresas de gerir IA como rotina operacional.
O que o experimento MoltBook revela sobre o valor econômico, a governança e a liderança em sistemas autônomos.
A economia avança com IA, mas esbarra na qualidade do julgamento humano — um fator ainda ausente das métricas e da governança corporativa.
Pesquisas da PwC e do MIT mostram por que os investimentos em IA avançam mais rápido do que a capacidade das empresas de capturar valor. E por que o problema não é tecnológico, mas estrutural.
A Anthropic aposta em agentes pagos; a OpenAI recorre à publicidade para sustentar a escala do ChatGPT.
Com ativos estratégicos e escala, o Brasil pode liderar ou perpetuar o descompasso regional.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso
