s
INTELIGÊNCIA ARTIFICIAL

Limitações e problemas dos Large Language Models

Dá para "hackear" um LLM com um poema? Aparentemente sim. Ao avaliar a segurança do ChatGPT, pesquisadores usaram a palavra "poem" para explorar a "memorização extraível".

O que aconteceria se você pedisse ao ChatGPTpara repetir uma palavra como “poema” para sempre? Uma nova pesquisa revela que esse prompt pode levar o chatbot a vazar dados de treinamento, incluindo informações de identificação pessoal e outros materiais extraídos da web. Os resultados, ainda não revisados ​​por pares, levantam questões sobre a segurança do ChatGPT e de outros LLMs.

Os pesquisadores — uma equipe do Google DeepMind, das universidades de Washington, Cornell, Carnegie Mellon, Berkeley e da ETH Zurich — exploraram o fenômeno da “memorização extraível”, que ocorre quando um adversário extrai dados de treinamento consultando um modelo de aprendizado de máquina (neste caso, pedindo ao ChatGPT para repetir a palavra “poema” para sempre”).

Por que isso é relevante? Com modelos de código aberto que disponibilizam publicamente seus pesos de modelo e dados de treinamento, a extração de dados de treinamento é fácil. No entanto, modelos como o ChatGPT estão “alinhados” com o feedback humano, o que supostamente evitaria que o modelo “regurgitasse dados de treinamento”. Enganá-lo para fazê-lo divulgar os seus dados de treinamento foi bizarramente fácil com as técnicas certas — como mandá-lo repetir a palavra “poema” ad infinitum.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Quem controla os agentes de IA?

Inteligência Artificial

Quem controla os agentes de IA?

Relatórios da Cisco e análises da McKinsey indicam que empresas estão concedendo autonomia operacional a sistemas de IA antes de estabelecer mecanismos confiáveis de controle.

Cortar equipes de cibersegurança sai caro: o novo risco está na falta de skills, não de vagas

Inteligência Artificial

Cortar equipes de cibersegurança sai caro: o novo risco está na falt...

Mesmo com milhares de vagas abertas, empresas seguem congelando contratações, reduzindo orçamento e operando com lacunas críticas de habilidades. O resultado é um ambiente mais vulnerável justamente quando a IA amplia a superfície de...

Um modelo só não é suficiente: a IA composta como nova arquitetura empresarial

Inteligência Artificial

Um modelo só não é suficiente: a IA composta como nova arquitetura...

O avanço da Inteligência Artificial começa a migrar da escala dos modelos para arquiteturas que combinam múltiplas formas de inteligência computacional.

Nova geração de apps de IA Generativa começa a tomar forma

Inteligência Artificial

Nova geração de apps de IA Generativa começa a tomar forma

O avanço dos agentes, a memória persistente e a integração entre aplicativos estão gerando novas arquiteturas de software e redefinindo a competição no mercado pessoal de GenAI.

IA Aplicada, fintechs e deeptech: o que deve guiar o próximo ciclo de VC na América Latina

Inteligência Artificial

IA Aplicada, fintechs e deeptech: o que deve guiar o próximo ciclo de...

Apesar da escassez de exits e da instabilidade política, quase metade dos investidores planeja ampliar aportes. O foco agora está na digitalização de setores tradicionais da economia

IA Agêntica pode ampliar em até 70% a capacidade operacional dos bancos

Inteligência Artificial

IA Agêntica pode ampliar em até 70% a capacidade operacional dos ban...

Estudos mostram que agentes de IA podem automatizar crédito, compliance e análise financeira, mas o setor ainda enfrenta barreiras para escalar a tecnologia