s
INTELIGÊNCIA ARTIFICIAL

Limitações e problemas dos Large Language Models

Dá para "hackear" um LLM com um poema? Aparentemente sim. Ao avaliar a segurança do ChatGPT, pesquisadores usaram a palavra "poem" para explorar a "memorização extraível".

O que aconteceria se você pedisse ao ChatGPTpara repetir uma palavra como “poema” para sempre? Uma nova pesquisa revela que esse prompt pode levar o chatbot a vazar dados de treinamento, incluindo informações de identificação pessoal e outros materiais extraídos da web. Os resultados, ainda não revisados ​​por pares, levantam questões sobre a segurança do ChatGPT e de outros LLMs.

Os pesquisadores — uma equipe do Google DeepMind, das universidades de Washington, Cornell, Carnegie Mellon, Berkeley e da ETH Zurich — exploraram o fenômeno da “memorização extraível”, que ocorre quando um adversário extrai dados de treinamento consultando um modelo de aprendizado de máquina (neste caso, pedindo ao ChatGPT para repetir a palavra “poema” para sempre”).

Por que isso é relevante? Com modelos de código aberto que disponibilizam publicamente seus pesos de modelo e dados de treinamento, a extração de dados de treinamento é fácil. No entanto, modelos como o ChatGPT estão “alinhados” com o feedback humano, o que supostamente evitaria que o modelo “regurgitasse dados de treinamento”. Enganá-lo para fazê-lo divulgar os seus dados de treinamento foi bizarramente fácil com as técnicas certas — como mandá-lo repetir a palavra “poema” ad infinitum.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Como a IA corta custos e cria riscos nas violações de dados no Brasil

Inteligência Artificial

Como a IA corta custos e cria riscos nas violações de dados no Brasi...

Relatório da IBM mostra que o custo médio é de R$ 7,19 milhões por violação. Mais de 60% das empresas não têm política de uso e uma em cada 6 violações usam IA para atacar organizações

Seu board pessoal com IA: passo a passo para começar agora

Inteligência Artificial

Seu board pessoal com IA: passo a passo para começar agora

Crie um conselho consultivo com personas geradas por IA para tomar decisões mais estratégicas, com clareza sob demanda e diversidade de pensamento

Corrida por talentos de IA é mais que estratégica

Inteligência Artificial

Corrida por talentos de IA é mais que estratégica

Os próximos grandes saltos não ocorrerão necessariamente nos mesmos lugares. 

Agentes de IA: o valor chegou, a confiança não

Inteligência Artificial

Agentes de IA: o valor chegou, a confiança não

Desconfiança e falta de estrutura freiam adoção, apesar do alto potencial de ROI

Software-as-an-Agent: o futuro do SaaS na era da IA

Inteligência Artificial

Software-as-an-Agent: o futuro do SaaS na era da IA

Com IA, o valor do SaaS deixa de ser o número de usuários e passa a ser o quanto o software trabalha por você. E isso muda tudo

IA no trabalho: alta expectativa, baixa confiança — e acesso desigual

Inteligência Artificial

IA no trabalho: alta expectativa, baixa confiança — e acesso desigu...

Trabalhadores esperam que a IA traga eficiência, mas não confiam em seu julgamento. E o acesso desigual à tecnologia e ao treinamento amplia a exclusão