Na última semana de 2024, a empresa chinesa DeepSeek lançou um modelo de IA Generativa que surpreendeu pesquisadores de todo o mundo por sua eficiência. Custa 1/10 do valor do Lhama para treinar e usou 1/10 dos recursos. Em outro presente de Natal de código aberto, o Alibaba já havia lançado o Qwen2-VL-72B, um modelo de raciocínio visual impressionante, com pontuação de 70,3 no MMMU. Comparando, a pontuação do o1 é 77,3.
O DeepSeek V3 é um modelo Mixture-of-Experts (MoE) de alto desempenho que pode desafiar a ideia de que apenas grandes empresas de tecnologia com orçamentos ilimitados para GPU podem treinar modelos de linguagem de alto nível. Tem 671 bilhões de parâmetros totais com 37 bilhões ativados por token para inferência (v2 tinha 236B de parâmetros totais, 21B ativos) e foi treinado em 14,8T tokens. Corresponde a modelos não racionais de última geração, como 4o e Sonnet 3.5 na maioria dos benchmarks a um preço muito menor (menos de dez vezes abaixo de 4o).
O poder das arquiteturas MoE e o enorme potencial de vitórias de inovações de engenharia, especialmente para aqueles que querem desempenho de modelo grande sem incorrer em uma conta monstruosa de GPU, são destaques deste lançamento. O desempenho e a eficiência impressionantes do DeepSeek V3 são sustentados por um conjunto de técnicas inovadoras.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Saiba por que este será o ano de maior avanço na integração de IA em negócios e na vida cotidiana
Enquanto em 2024 os VCs investiram bilhões em modelos de fundação, a verdadeira oportunidade em 2025 está em resolver problemas de "última milha" que os modelos sozinhos não conseguem resolver.
O futuro da IA pode ser construído na tecnologia blockchain, já que a criptografia pode ajudar a aumentar a acessibilidade, a transparência e os casos de uso.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso