s
INTELIGÊNCIA ARTIFICIAL

Desalinhamento na OpenAI

Após uma semana do lançamento do ChatGPT 4o a OpenAI se envolveu em uma série de polêmicas envolvendo o fechamento da equipe de Superalinhamento e um processo da atriz Scarlett Johansson.

A semana posterior ao lançamento do GPT-4o tem sido dura para a OpenAI. Logo após à apresentação do modelo, Ilya Sutskever, que liderava a equipe de Superalinhamento da empresa, anunciou sua saída. E um pouco antes de Scarlett Johansson revelar ter negado a Sam Altman o licenciamento de sua voz para criação da voz do chatbot Sky e ser surpreendida com uma voz muito semelhante à dela na demonstração da versão audível do ChatGPT, Jan Leike, colíder da equipe de Superalinhamento, também pediu demissão, com vários outros funcionários. Um dia depois, publicou uma série de postagens no X acusando a OpenAI de priorizar “produtos brilhantes” à “cultura de segurança”, alertando para a"trajetória perigosa" da empresa.

Esses já seriam problemas suficientes de reputação, mas acabaram formando um caldo fervente com a revelação de cláusulas draconianas nos acordos de saída, como a não depreciação da empresa, sob pena de perda de suas ações.

Em um período curto de tempo, Sam Altman se viu obrigado a:

  • Reconhecer o fim da equipe de Superalinhamento.
  • Parar de usar a voz Sky no ChatGPT.
  • Responder aos advogados de Scarlett Johansson, alegando que a voz do “Sky” não é uma imitação de Johansson e que outra atriz foi contratada para o trabalho (embora seu nome não tenha sido revelado). E que a Sky é apenas uma das cinco vozes disponíveis no modo de voz do ChatGPT.
  • Se desculpar pela cláusula na documentação de saída da OpenAI, dizendo que não sabia de sua existência e estava “envergonhado” ao saber disso.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

IA Agêntica depende mais de gente que de código

Inteligência Artificial

IA Agêntica depende mais de gente que de código

Agentes prometem escala e eficiência, mas expõem limites organizacionais. O diferencial está na capacidade das empresas de gerir IA como rotina operacional.

Quem define as regras quando agentes se coordenam?

Inteligência Artificial

Quem define as regras quando agentes se coordenam?

O que o experimento MoltBook revela sobre o valor econômico, a governança e a liderança em sistemas autônomos.

Capital cerebral: o limite invisível do crescimento na era da IA

Inteligência Artificial

Capital cerebral: o limite invisível do crescimento na era da IA

A economia avança com IA, mas esbarra na qualidade do julgamento humano — um fator ainda ausente das métricas e da governança corporativa.

A IA entrou no orçamento. Falta entrar no modelo de negócio


Inteligência Artificial

A IA entrou no orçamento. Falta entrar no modelo de negócio


Pesquisas da PwC e do MIT mostram por que os investimentos em IA avançam mais rápido do que a capacidade das empresas de capturar valor. E por que o problema não é tecnológico, mas estrutural.

A IA sai do chat e entra no caixa

Inteligência Artificial

A IA sai do chat e entra no caixa

A Anthropic aposta em agentes pagos; a OpenAI recorre à publicidade para sustentar a escala do ChatGPT.

Paradoxo latino: IA cresce, impacto não

Inteligência Artificial

Paradoxo latino: IA cresce, impacto não

Com ativos estratégicos e escala, o Brasil pode liderar ou perpetuar o descompasso regional.