Acredite. Grandes modelos de linguagem (LLMs) tendem a dar melhores respostas quando solicitados com respeito. Prompts pouco educados podem levar a uma deterioração no desempenho do modelo, incluindo erros, preconceitos mais fortes e omissão de informação”, descobriram pesquisadores da Waseda University.
Eles testaram meia dúzia de chatbots em dezenas de tarefas, usando até 150 prompts por tarefa, partindo da premissa de que a linguagem educada nas comunicações humanas geralmente gera mais conformidade e eficácia, enquanto a rudeza pode causar aversão, afetando a qualidade da resposta. Não deu outra. A pesquisa concluiu que os LLMs refletem certas características da comunicação humana, o que significa que a educação em relação aos chatbots tende a gerar melhores respostas, assim como a educação faz na conversa humana.
O grau de influência da polidez no desempenho do LLM nos diferentes idiomas utilizados sugere que o contexto cultural é um fator importante nos sistemas de compreensão da linguagem natural. Aponta para a necessidade de conjuntos de dados e processos de formação de modelos mais culturalmente conscientes, propondo um âmbito mais amplo para a incorporação da sensibilidade cultural no desenvolvimento de sistemas de IA.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
RAG, ajuste fino e N-Shot Learning: como empresas estão combinando técnicas para extrair o máximo dos LLMs
Empresas que tratam a IA apenas como um ganho de eficiência estão ficando para trás. O diferencial real está na inovação de negócios e na criação de novas fontes de receita
O novo modelo Claude 3.7 reforça a tendência de IA focada em raciocínio avançado e desafia empresas a adaptarem sua estratégia de inovação
Startups de Inteligência Artificial atraem 62% mais capital de risco, com EUA liderando o mercado global
Estudos mostram que confiar cegamente na IA pode reduzir a habilidade humana de questionamento e tomada de decisões. Saiba como profissionais e empresas podem evitar essa armadilha
Há quem diga que o real objetivo de Musk não é comprar a empresa, mas sim sabotar os esforços contínuos de Sam Altman para arrecadar bilhões a mais para a OpenAI
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso