s
O hype em torno da IA Generativa e da incorporação dos chatbots às buscas aqueceu o debate sobre os riscos da IA. FOTO: Banco de Imagem Canva/PhonlamaiPhoto's Image
INTELIGÊNCIA ARTIFICIAL

Quem deve criar e aplicar as regras para controle dos grandes modelos de linguagem?

Até o cofundador da OpenAI, Sam Altman, reconhece que embora seja tentador avançar rapidamente, a sociedade precisa de tempo para se adaptar a algo tão grande.

A corrida para incorporar ferramentas derivadas de grandes modelos de linguagem (como o GPT-3 e superiores) aos fluxos de trabalho das empresas já começou. Mas da mesma forma que a mídia americana descobriu semana passada, também os usuários corporativos já perceberam que esses modelos nem sempre são factuais ou logicamente consistentes; têm conhecimento de eventos ocorridos após o seu treinamento ou são capazes de evitar discurso de ódio e outros conteúdos nocivos, só para citar mazelas recorrentes.

A OpenAI, criadora do ChatGPT, sempre enfatizou que ele ainda é apenas um projeto de pesquisa, em evolução constante à medida que recebe o feedback das pessoas. O que não impediu a Microsoft de integrá-lo a uma nova versão do Bing — e decepcionar, após relatos dos primeiros beta testers. A ponto de implementar restrições significativas — incluindo um limite de 50 respostas totais por dia, bem como cinco turnos de bate-papo por sessão — para tentar reprimir respostas desequilibradas que ela já sabia que ocorreriam.

Resultado: todo o hype em torno da IA Generativa e da incorporação dos chatbots às buscas aqueceu o debate sobre os riscos da IA, iniciando outra corrida, pela criação de regras e abordagens capazes de tornar ferramentas como o ChatGPT mais precisas, consistentes e atualizadas.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

A Inteligência Artificial e seus três eixos regulatórios

Inteligência Artificial

A Inteligência Artificial e seus três eixos regulatórios

A ética dos dados, a ética dos algoritmos e a ética das práticas devem embasar as propostas de legislação que busquem provocar a internalização de conceitos de “certo” ou “errado”

Por Gustavo Artese*, especial para The Shift
A nomeação de um comitê de risco ético de IA é para ontem

Inteligência Artificial

A nomeação de um comitê de risco ético de IA é para ontem

Abordagens padrão ignoram dezenas de possíveis problemas éticos. Para melhor mitigar os riscos, as empresas precisam de recomendações de um grupo multidisciplinar, com autoridade para emiti-las

Algum dia a IA será completamente imparcial?

Inteligência Artificial

Algum dia a IA será completamente imparcial?

Tecnicamente, sim. Um sistema de IA pode ser tão bom quanto a qualidade de seus dados e o design de seus modelos. Por isso é tão importante neutralizar os vieses cognitivos dos algoritmos

Por Cristina De Luca