A Itália proibiu temporariamente o ChatGPT na semana passada, alegando que ele viola o GDPR. Os problemas alegados? A OpenAI não tem controles de idade para impedir que menores de 13 anos usem o sistema; ele pode fornecer informações imprecisas sobre pessoas; essas pessoas não foram informadas de que seus dados foram coletados; e, talvez o mais importante dos argumentos, “não há base legal” para a coleta de informações pessoais nas coleções de dados usadas para treiná-lo.
A OpenAI concordou imediatamente com a proibição, dizendo que trabalharia com os reguladores italianos para “educá-los” sobre como o software de IA da OpenAI é treinado e opera. “É claro que cedemos ao governo italiano e paramos de oferecer o ChatGPT na Itália (embora pensemos que estamos seguindo todas as leis de privacidade)”, twittou seu CEO, Sam Altman. A política de privacidade da OpenAI não menciona diretamente suas razões legais para usar informações pessoais em dados de treinamento, mas diz que se baseia em “legítimo interesse” quando “desenvolve” seus serviços.
Ato contínuo, o órgão regulador de proteção de dados do Reino Unido seguiu a proibição da Itália, com um aviso de que as empresas também poderiam entrar em conflito com leis específicas da Grã-Bretanha se não cuidarem da forma como desenvolveram e usaram IA Generativa. E emitiu um checklist para ajudá-las a garantir a conformidade. Agora, o Escritório da Comissão de Privacidade do Canadá anunciou uma investigação sobre a Open AI, em resposta a uma queixa de privacidade contra o ChatGPT.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
De humanoides a veículos autônomos, a robótica entra em fase de maturação com dados sintéticos, teleoperação e modelos generativos que aprendem a agir no mundo real.
Enquanto o Vale do Silício corre para criar máquinas que superem a mente humana, a Microsoft aposta em outro tipo de corrida: a por uma superinteligência poderosa, mas sob controle humano.
IA Soberana sai dos gabinetes de governo e entra no coração da estratégia corporativa, redefinindo quem controla dados, energia e vantagem competitiva.
Simulações baseadas em agentes autônomos estão acelerando decisões de negócios — e já superam pesquisas tradicionais em precisão e tempo. Mas há desafios para o uso em escala.
Empresas que tratam rotulagem como capex cognitivo, e não custo operacional, estão melhor preparadas para transformar aprendizado em ROI.
O pico de expectativas sobre vibe coding está cedendo lugar a um uso mais controlado. Em protótipos e automações locais, funciona. Em produção, sem governança, vira dívida técnica e risco.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso
