BRANDED CONTENT
APRESENTADO POR 7D Analytics
Organizações geram e interagem com grandes quantidades de informações dispersas em várias plataformas e formatos. Extrair insights valiosos desse cenário complexo requer geralmente a capacidade de conectar dados díspares, um processo conhecido como Multi-Hop Reasoning (Raciocínio Multi-Hop), um processo cognitivo em IA aonde as informações são coletadas e sintetizadas em contextos ou repositórios de conhecimento. Envolve conectar várias etapas de inferência para chegar a uma resposta abrangente, permitindo melhor compreensão e resolução de problemas.
A necessidade do raciocínio multi-hop em dados de negócios surge da natureza intrincada e interconectada das informações organizacionais. Por exemplo, gerar uma previsão de vendas abrangente pode exigir a combinação de dados históricos de vendas, relatórios de pesquisa de mercado, logística da cadeia de suprimentos e indicadores econômicos. Essa complexidade exige sistemas capazes de navegar em vários pontos de dados e sintetizá-los em insights coerentes.
O raciocínio multi-hop é essencial, portanto, para processar e analisar dados de negócios, geralmente complexos e espalhados por várias fontes, com eficácia.
O problema? Responder perguntas multi-hop é um subcampo desafiador para os LLMs. Experimentos recentes com LLMs de última geração revelaram lacunas em sua capacidade de lidar com tarefas complexas de raciocínio multi-hop. “Sem mecanismos de recuperação eficazes, os LLMs têm capacidade limitada de responder a perguntas multi-hop complexas, alcançando apenas cerca de 40% de precisão em avaliações de etapa única”, explica Matheus Ferreira, sócio da 7D Analytics.
Técnicas de geração aumentada de recuperação (RAG) tornaram-se uma abordagem poderosa ao alavancar os pontos fortes dos sistemas de recuperação e as capacidades generativas dos LLMs. Essas técnicas são particularmente eficazes para tarefas que exigem raciocínio multi-hop, fundamentação factual e síntese de informações de diversos domínios de conhecimento.
No entanto, a avaliação dos sistemas RAG continua fragmentada e insuficiente, uma vez que os benchmarks existentes normalmente avaliam componentes como recuperação, correção factual e raciocínio de forma isolada. “Esta abordagem fragmentada não consegue capturar o desempenho holístico desses sistemas em aplicações reais”, explica Matheus.
Para preencher essa lacuna, pesquisadores do Google lançaram uma estrutura de avaliação — o FRAMES (Factuality, Retrieval, And reasoning MEasurement Set), projetada para testar as três capacidades principais dos LLMs em aplicações de negócio — recuperação de fatos, raciocínio em múltiplas restrições e síntese precisa de informações em respostas coerentes.
“Ao simular consultas realistas de vários documentos, o FRAMES fornece uma imagem mais clara das capacidades e limitações atuais dos LLMs em aplicações de negócio, ressaltando a importância de aprimorarmos ainda mais os mecanismos de recuperação e as capacidades de raciocínio desses modelos para melhorar seu desempenho geral”, afirma Matheus.
Entre outras coisas, o FRAMES incorpora consultas multi-hop complexas que exigem que os modelos recuperem e integrem informações de várias fontes.
E inclui tarefas que avaliam a síntese de informações em respostas coerentes e contextualmente precisas, garantindo que os sistemas RAG sejam avaliados em sua capacidade de desempenho em cenários realistas e multifacetados, ideais para aplicação dos LLMs em aplicações de negócio. O que o torna um benchmark mais rigoroso e abrangente, bem adequado para orientar o desenvolvimento de sistemas RAG de próxima geração.
Os próprios pesquisadores do Google reconhecem, no entanto, que o desenvolvimento de estratégias de recuperação mais sofisticadas continuará sendo essencial para a aplicação de LLMs na resolução de problemas de negócio complexos. O que inclui explorar recuperadores densos treinados diretamente na tarefa de recuperação multi-hop, como aqueles baseados em arquiteturas ColBERT ou SimCSE.
Da mesma forma, melhorar as capacidades de raciocínio dos LLMs continuará sendo necessário. Assim como expandir o conjunto de dados FRAMES para inclusão de perguntas mais diversas e específicas do domínio e incorporar elementos mais dinâmicos, como recuperação de informações em tempo real, também ajudarão a aumentar sua utilidade como referência para sistemas RAG mais avançados.
* Conteúdo produzido em parceria com a 7D Analytics, pelo programa de Marketing Services da The Shift. A 7D Analytics é uma consultoria especializada em advanced analytics, otimização matemática, e elaboração de modelos preditivos e prescritivos para fenômenos naturais, sociais e econômicos, otimização aplicada aos negócios, supply chain management e soluções personalizadas de Data Science.
Modelos tradicionais de previsão de demanda funcionam. Mas combiná-los com diferentes abordagens de IA cria algo mais poderoso: sistemas que podem prever, prescrever e gerar soluções em tempo real
O treinamento descentralizado em fontes de dados distribuídas pode democratizar o treinamento de LLMs, tornando-os acessíveis a players menores, preservando a privacidade e com boa relação custo-benefício, mas os desafios permanecem.
LLMs ainda são ruins em raciocínio multi-hop. Precisamos de melhores mecanismos de recuperação e capacidades de raciocínio. E o novo benchmark FRAMES pode nos ajudar a avançar
Combinados, Machine Learning e GenAI podem revelar insights ocultos sobre o que realmente gera satisfação e produtividade.
Pesquisadores chineses conseguiram abordar a previsão quantitativa de mudanças de regime para vários tipos de dinâmica em redes usando Machine Learning.
A IA orientada a objetivos é a próxima fronteira. Não apenas prever o futuro, mas moldá-lo.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso