Acredite. Grandes modelos de linguagem (LLMs) tendem a dar melhores respostas quando solicitados com respeito. Prompts pouco educados podem levar a uma deterioração no desempenho do modelo, incluindo erros, preconceitos mais fortes e omissão de informação”, descobriram pesquisadores da Waseda University.
Eles testaram meia dúzia de chatbots em dezenas de tarefas, usando até 150 prompts por tarefa, partindo da premissa de que a linguagem educada nas comunicações humanas geralmente gera mais conformidade e eficácia, enquanto a rudeza pode causar aversão, afetando a qualidade da resposta. Não deu outra. A pesquisa concluiu que os LLMs refletem certas características da comunicação humana, o que significa que a educação em relação aos chatbots tende a gerar melhores respostas, assim como a educação faz na conversa humana.
O grau de influência da polidez no desempenho do LLM nos diferentes idiomas utilizados sugere que o contexto cultural é um fator importante nos sistemas de compreensão da linguagem natural. Aponta para a necessidade de conjuntos de dados e processos de formação de modelos mais culturalmente conscientes, propondo um âmbito mais amplo para a incorporação da sensibilidade cultural no desenvolvimento de sistemas de IA.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Quando encontrar brechas deixa de ser difícil, todo cuidado é pouco. Por isso, a Anthropic lançou o modelo para apenas 50 empresas parceiras. O Project Glasswing inaugura uma nova fase da cibersegurança.
O AI Index, do HAI, identifica uma dependência geopolítica que o mercado ignora e uma percepção pública construída sobre uma versão anterior da tecnologia.
Quando os projetos fracassam, os custos somem. Quando os funcionários ficam de fora, ninguém conta. A indústria celebra uma transformação que seus próprios dados contradizem.
A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.
Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.
SpaceX, Google e Nvidia convergem para a mesma aposta: computação de IA no espaço. Os dados técnicos mostram onde estão os gargalos — e onde está o dinheiro.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso
