s
INTELIGÊNCIA ARTIFICIAL

Desalinhamento na OpenAI

Após uma semana do lançamento do ChatGPT 4o a OpenAI se envolveu em uma série de polêmicas envolvendo o fechamento da equipe de Superalinhamento e um processo da atriz Scarlett Johansson.

A semana posterior ao lançamento do GPT-4o tem sido dura para a OpenAI. Logo após à apresentação do modelo, Ilya Sutskever, que liderava a equipe de Superalinhamento da empresa, anunciou sua saída. E um pouco antes de Scarlett Johansson revelar ter negado a Sam Altman o licenciamento de sua voz para criação da voz do chatbot Sky e ser surpreendida com uma voz muito semelhante à dela na demonstração da versão audível do ChatGPT, Jan Leike, colíder da equipe de Superalinhamento, também pediu demissão, com vários outros funcionários. Um dia depois, publicou uma série de postagens no X acusando a OpenAI de priorizar “produtos brilhantes” à “cultura de segurança”, alertando para a"trajetória perigosa" da empresa.

Esses já seriam problemas suficientes de reputação, mas acabaram formando um caldo fervente com a revelação de cláusulas draconianas nos acordos de saída, como a não depreciação da empresa, sob pena de perda de suas ações.

Em um período curto de tempo, Sam Altman se viu obrigado a:

  • Reconhecer o fim da equipe de Superalinhamento.
  • Parar de usar a voz Sky no ChatGPT.
  • Responder aos advogados de Scarlett Johansson, alegando que a voz do “Sky” não é uma imitação de Johansson e que outra atriz foi contratada para o trabalho (embora seu nome não tenha sido revelado). E que a Sky é apenas uma das cinco vozes disponíveis no modo de voz do ChatGPT.
  • Se desculpar pela cláusula na documentação de saída da OpenAI, dizendo que não sabia de sua existência e estava “envergonhado” ao saber disso.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

A IA responsável pode eliminar a supervisão humana?

Inteligência Artificial

A IA responsável pode eliminar a supervisão humana?

Pesquisa do MIT SMR e do BCG responde: não! Painel com 31 especialistas globais indica que a supervisão humana em IA exige mais do que verificar outputs: exige julgamento em todo o ciclo de vida dos sistemas.

Sim, agentes de IA autorreplicantes já existem

Inteligência Artificial

Sim, agentes de IA autorreplicantes já existem

Em menos de um ano, a taxa de sucesso em testes de autorreplicação saltou de 6% para 81%. O tempo médio de detecção nas empresas ainda é de 10 dias.

O efeito bumerangue das demissões por IA: empresas que cortaram estão recontratando (e pagando mais caro)

Inteligência Artificial

O efeito bumerangue das demissões por IA: empresas que cortaram estã...

Uma onda de organizações que demitiu em nome da IA está refazendo o caminho, só que agora com custos 27% maiores, equipes que perderam a confiança na liderança e o conhecimento institucional que foi embora junto com os funcionários

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs estão preocupados)

Inteligência Artificial

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs e...

Mais da metade dos CEOs ouvidos pelo BCG diz que seus conselhos confundem narrativa midiática com realidade operacional da IA; 60% acreditam que estão sendo pressionados a agir rápido demais

O que a IA, educação e talentos representam para a SAS, segundo o COO Gavin Day

Inteligência Artificial

O que a IA, educação e talentos representam para a SAS, segundo o CO...

A empresa, que investe em educação de colaboradores e clientes sobre IA, se apoia em uma cultura construída ao longo de cinco décadas para se tornar diferencial num mercado em consolidação.

CAIO virou cargo estratégico

Inteligência Artificial

CAIO virou cargo estratégico

Mas a maioria das empresas ainda não sabe o que fazer com ele. Sua ascensão expõe um paradoxo: a posição cresce três vezes mais rápido que a capacidade de usá-la para transformar o negócio de fato