A corrida para incorporar ferramentas derivadas de grandes modelos de linguagem (como o GPT-3 e superiores) aos fluxos de trabalho das empresas já começou. Mas da mesma forma que a mídia americana descobriu semana passada, também os usuários corporativos já perceberam que esses modelos nem sempre são factuais ou logicamente consistentes; têm conhecimento de eventos ocorridos após o seu treinamento ou são capazes de evitar discurso de ódio e outros conteúdos nocivos, só para citar mazelas recorrentes.
A OpenAI, criadora do ChatGPT, sempre enfatizou que ele ainda é apenas um projeto de pesquisa, em evolução constante à medida que recebe o feedback das pessoas. O que não impediu a Microsoft de integrá-lo a uma nova versão do Bing — e decepcionar, após relatos dos primeiros beta testers. A ponto de implementar restrições significativas — incluindo um limite de 50 respostas totais por dia, bem como cinco turnos de bate-papo por sessão — para tentar reprimir respostas desequilibradas que ela já sabia que ocorreriam.
Resultado: todo o hype em torno da IA Generativa e da incorporação dos chatbots às buscas aqueceu o debate sobre os riscos da IA, iniciando outra corrida, pela criação de regras e abordagens capazes de tornar ferramentas como o ChatGPT mais precisas, consistentes e atualizadas.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Se você já recebe nossas newsletters,
preencha seu e-mail que lhe mandaremos instruções
VoltarCrie sua senha para o e-mail
e atualize suas informações
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
VoltarPronto! Só falta um passo.
Clique no link do e-mail que enviamos para
retornar aqui e finalizar seu cadastro.