s
INTELIGÊNCIA ARTIFICIAL

Vale a pena ser gentil com sua IA

Gentileza gera gentileza, e aumenta a qualidade das respostas dos chatbots de IA, revelam pesquisadores da Waseda University

Acredite. Grandes modelos de linguagem (LLMs) tendem a dar melhores respostas quando solicitados com respeito. Prompts pouco educados podem levar a uma deterioração no desempenho do modelo, incluindo erros, preconceitos mais fortes e omissão de informação”, descobriram pesquisadores da Waseda University.

Eles testaram meia dúzia de chatbots em dezenas de tarefas, usando até 150 prompts por tarefa, partindo da premissa de que a linguagem educada nas comunicações humanas geralmente gera mais conformidade e eficácia, enquanto a rudeza pode causar aversão, afetando a qualidade da resposta. Não deu outra. A pesquisa concluiu que os LLMs refletem certas características da comunicação humana, o que significa que a educação em relação aos chatbots tende a gerar melhores respostas, assim como a educação faz na conversa humana.

  • A tese provou ser verdadeira em todos os prompts em inglês, chinês e japonês e em cada chatbot testado.
  • Aparentemente, alguns LLMs podem ter sido programados para gerar respostas mais educadas e úteis quando os usuários são educados e respeitosos em suas solicitações.
  • Prompts indelicados geralmente resultam em desempenho ruim, mas uma linguagem excessivamente educada não garante melhores resultados.
  • Um efeito das solicitações excessivamente rudes ou lisonjeiras foi respostas mais longas em inglês e chinês.
  • A bajulação excessiva também não é necessariamente bem-vinda.

O grau de influência da polidez no desempenho do LLM nos diferentes idiomas utilizados sugere que o contexto cultural é um fator importante nos sistemas de compreensão da linguagem natural. Aponta para a necessidade de conjuntos de dados e processos de formação de modelos mais culturalmente conscientes, propondo um âmbito mais amplo para a incorporação da sensibilidade cultural no desenvolvimento de sistemas de IA.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Inteligência Artificial

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Quando encontrar brechas deixa de ser difícil, todo cuidado é pouco. Por isso, a Anthropic lançou o modelo para apenas 50 empresas parceiras. O Project Glasswing inaugura uma nova fase da cibersegurança.

A realidade da IA em 2026, segundo Stanford

Inteligência Artificial

A realidade da IA em 2026, segundo Stanford

O AI Index, do HAI, identifica uma dependência geopolítica que o mercado ignora e uma percepção pública construída sobre uma versão anterior da tecnologia.

O que o balanço da IA não mostra

Inteligência Artificial

O que o balanço da IA não mostra

Quando os projetos fracassam, os custos somem. Quando os funcionários ficam de fora, ninguém conta. A indústria celebra uma transformação que seus próprios dados contradizem.

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

Inteligência Artificial

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.

Limites cognitivos e a vida emocional oculta dos LLMs

Inteligência Artificial

Limites cognitivos e a vida emocional oculta dos LLMs

Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.

A órbita como infraestrutura

Inteligência Artificial

A órbita como infraestrutura

SpaceX, Google e Nvidia convergem para a mesma aposta: computação de IA no espaço. Os dados técnicos mostram onde estão os gargalos — e onde está o dinheiro.