Acredite. Grandes modelos de linguagem (LLMs) tendem a dar melhores respostas quando solicitados com respeito. Prompts pouco educados podem levar a uma deterioração no desempenho do modelo, incluindo erros, preconceitos mais fortes e omissão de informação”, descobriram pesquisadores da Waseda University.
Eles testaram meia dúzia de chatbots em dezenas de tarefas, usando até 150 prompts por tarefa, partindo da premissa de que a linguagem educada nas comunicações humanas geralmente gera mais conformidade e eficácia, enquanto a rudeza pode causar aversão, afetando a qualidade da resposta. Não deu outra. A pesquisa concluiu que os LLMs refletem certas características da comunicação humana, o que significa que a educação em relação aos chatbots tende a gerar melhores respostas, assim como a educação faz na conversa humana.
O grau de influência da polidez no desempenho do LLM nos diferentes idiomas utilizados sugere que o contexto cultural é um fator importante nos sistemas de compreensão da linguagem natural. Aponta para a necessidade de conjuntos de dados e processos de formação de modelos mais culturalmente conscientes, propondo um âmbito mais amplo para a incorporação da sensibilidade cultural no desenvolvimento de sistemas de IA.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Quatro lançamentos recentes — GPT-5, GPT-OSS, Genie 3 e Claude Opus 4.1 — mostram que a disputa não é mais por modelos maiores, mas por modelos mais úteis.
Mais seguro, mais barato e com novos truques agênticos, modelo continua longe da AGI e leva OpenAI a enfrentar críticas no lançamento.
Enquanto a IA avança, a amnésia digital dos modelos permanece um gargalo. Mas soluções já estão surgindo — de cofres pessoais de memória a plugins especializados.
Deepfakes e phishing por IA estão entre os principais vetores. Violação com IA encurta tempo e amplia escala de ataque
Relatório da IBM mostra que o custo médio é de R$ 7,19 milhões por violação. Mais de 60% das empresas não têm política de uso e uma em cada 6 violações usam IA para atacar organizações
Crie um conselho consultivo com personas geradas por IA para tomar decisões mais estratégicas, com clareza sob demanda e diversidade de pensamento
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso