Um grupo de pesquisadores do Google identificou uma causa importante para o fracasso comum dos modelos de aprendizado de máquina: a subespecificação, velha conhecida dos estatísticos. Surpreendentemente, decisões aparentemente irrelevantes podem ter um impacto muito grande no desempenho dos modelos em produção, afirma o grupo em um paper documentando a tese.
No fim das contas, um modelo é uma simplificação da realidade, explica Alex D'Amour, líder do estudo. Os modelos geralmente refletem ou imitam o mundo real. Mas da maneira como são ajustados, não há garantia de que seu computador selecione um modelo que reflita a lógica ou a ciência de sua aplicação específica.
O resultado? quando você implanta seu modelo muito preciso e de alto desempenho no conjunto de testes, há uma boa chance de ele imediatamente começar a ter um desempenho ruim no mundo real, custando tempo e dinheiro. Em outras palavras, o processo usado para construir a maioria dos modelos de aprendizado de máquina hoje não pode dizer quais modelos funcionarão no mundo real e quais não.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Se você já recebe nossas newsletters,
preencha seu e-mail que lhe mandaremos instruções
VoltarCrie sua senha para o e-mail
e atualize suas informações
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
VoltarPronto! Só falta um passo.
Clique no link do e-mail que enviamos para
retornar aqui e finalizar seu cadastro.