The Shift

A subespecificação está arruinando o desempenho dos modelos de Machine Learning

Um grupo de pesquisadores do Google identificou uma causa importante para o fracasso comum dos modelos de aprendizado de máquina: a subespecificação, velha conhecida dos estatísticos. Surpreendentemente, decisões aparentemente irrelevantes podem ter um impacto muito grande no desempenho dos modelos em produção, afirma o grupo em um paper documentando a tese.

No fim das contas, um modelo é uma simplificação da realidade, explica Alex D'Amour, líder do estudo. Os modelos geralmente refletem ou imitam o mundo real. Mas da maneira como são ajustados, não há garantia de que seu computador selecione um modelo que reflita a lógica ou a ciência de sua aplicação específica.

O resultado? quando você implanta seu modelo muito preciso e de alto desempenho no conjunto de testes, há uma boa chance de ele imediatamente começar a ter um desempenho ruim no mundo real, custando tempo e dinheiro. Em outras palavras, o processo usado para construir a maioria dos modelos de aprendizado de máquina hoje não pode dizer quais modelos funcionarão no mundo real e quais não.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Se você já recebe nossas newsletters,

preencha seu e-mail que lhe mandaremos instruções

Voltar
Enviar
Opa! Parece que este e-mail não está cadastrado ainda.
Tente novamente ou, se quiser fazer um novo cadastro, clique aqui.

Crie sua senha para o e-mail

e atualize suas informações

Atualizar

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Cadastre-se grátis, leia até 5 conteúdos por mês,

e receba nossa newsletter diária.

Voltar

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

Pronto! Só falta um passo.

Clique no link do e-mail que enviamos para
retornar aqui e finalizar seu cadastro.