s
INTELIGÊNCIA ARTIFICIAL

Desalinhamento na OpenAI

Após uma semana do lançamento do ChatGPT 4o a OpenAI se envolveu em uma série de polêmicas envolvendo o fechamento da equipe de Superalinhamento e um processo da atriz Scarlett Johansson.

A semana posterior ao lançamento do GPT-4o tem sido dura para a OpenAI. Logo após à apresentação do modelo, Ilya Sutskever, que liderava a equipe de Superalinhamento da empresa, anunciou sua saída. E um pouco antes de Scarlett Johansson revelar ter negado a Sam Altman o licenciamento de sua voz para criação da voz do chatbot Sky e ser surpreendida com uma voz muito semelhante à dela na demonstração da versão audível do ChatGPT, Jan Leike, colíder da equipe de Superalinhamento, também pediu demissão, com vários outros funcionários. Um dia depois, publicou uma série de postagens no X acusando a OpenAI de priorizar “produtos brilhantes” à “cultura de segurança”, alertando para a"trajetória perigosa" da empresa.

Esses já seriam problemas suficientes de reputação, mas acabaram formando um caldo fervente com a revelação de cláusulas draconianas nos acordos de saída, como a não depreciação da empresa, sob pena de perda de suas ações.

Em um período curto de tempo, Sam Altman se viu obrigado a:

  • Reconhecer o fim da equipe de Superalinhamento.
  • Parar de usar a voz Sky no ChatGPT.
  • Responder aos advogados de Scarlett Johansson, alegando que a voz do “Sky” não é uma imitação de Johansson e que outra atriz foi contratada para o trabalho (embora seu nome não tenha sido revelado). E que a Sky é apenas uma das cinco vozes disponíveis no modo de voz do ChatGPT.
  • Se desculpar pela cláusula na documentação de saída da OpenAI, dizendo que não sabia de sua existência e estava “envergonhado” ao saber disso.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

Inteligência Artificial

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.

Limites cognitivos e a vida emocional oculta dos LLMs

Inteligência Artificial

Limites cognitivos e a vida emocional oculta dos LLMs

Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.

A órbita como infraestrutura

Inteligência Artificial

A órbita como infraestrutura

SpaceX, Google e Nvidia convergem para a mesma aposta: computação de IA no espaço. Os dados técnicos mostram onde estão os gargalos — e onde está o dinheiro.

A IA já constrói um modelo de quem somos, mas não podemos auditá-lo

Inteligência Artificial

A IA já constrói um modelo de quem somos, mas não podemos auditá-l...

Memória persistente transforma sistemas de IA em infraestruturas de identidade, sem mecanismos claros de explicação, correção ou limites de uso.

O radar da deep tech: 25 tecnologias que podem transformar o mundo

Inteligência Artificial

O radar da deep tech: 25 tecnologias que podem transformar o mundo

Novo relatório do EIC mapeia avanços em IA, materiais avançados, computação quântica e biotecnologia que começam a ganhar escala na corrida global pela inovação

Integridade, a capacidade que falta para a IA

Inteligência Artificial

Integridade, a capacidade que falta para a IA

Por razões técnicas e estratégicas, a AI Integrity emerge como o próximo campo crítico da segurança corporativa