s
INTELIGÊNCIA ARTIFICIAL

Limitações e problemas dos Large Language Models

Dá para "hackear" um LLM com um poema? Aparentemente sim. Ao avaliar a segurança do ChatGPT, pesquisadores usaram a palavra "poem" para explorar a "memorização extraível".

O que aconteceria se você pedisse ao ChatGPTpara repetir uma palavra como “poema” para sempre? Uma nova pesquisa revela que esse prompt pode levar o chatbot a vazar dados de treinamento, incluindo informações de identificação pessoal e outros materiais extraídos da web. Os resultados, ainda não revisados ​​por pares, levantam questões sobre a segurança do ChatGPT e de outros LLMs.

Os pesquisadores — uma equipe do Google DeepMind, das universidades de Washington, Cornell, Carnegie Mellon, Berkeley e da ETH Zurich — exploraram o fenômeno da “memorização extraível”, que ocorre quando um adversário extrai dados de treinamento consultando um modelo de aprendizado de máquina (neste caso, pedindo ao ChatGPT para repetir a palavra “poema” para sempre”).

Por que isso é relevante? Com modelos de código aberto que disponibilizam publicamente seus pesos de modelo e dados de treinamento, a extração de dados de treinamento é fácil. No entanto, modelos como o ChatGPT estão “alinhados” com o feedback humano, o que supostamente evitaria que o modelo “regurgitasse dados de treinamento”. Enganá-lo para fazê-lo divulgar os seus dados de treinamento foi bizarramente fácil com as técnicas certas — como mandá-lo repetir a palavra “poema” ad infinitum.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

O poder da IA agora é físico

Inteligência Artificial

O poder da IA agora é físico

Porque a Inteligência Artificial deixou de ser tecnologia. Tornou-se infraestrutura — e, portanto, política econômica.

O novo playbook do software

Inteligência Artificial

O novo playbook do software

A IA está mudando o mercado de software. Empresas nativas de IA crescem até três vezes mais rápido que as de SaaS tradicional, com um diferencial: retorno rápido de valor para o cliente.

Os agentes de IA avançam. As empresas, nem tanto

Inteligência Artificial

Os agentes de IA avançam. As empresas, nem tanto

Muitas organizações têm dificuldade em transformar a IA Agêntica em ROI. Desafios estruturais como governança, déficit técnico, custo e confiança ainda limitam o impacto desejado

IA no trabalho: entre dopamina, workslop e risco regulatório

Inteligência Artificial

IA no trabalho: entre dopamina, workslop e risco regulatório

Pesquisas recentes mostram que chatbots e copilots podem capturar atenção como redes sociais e máquinas caça-níqueis. E já há um preço alto sendo pago nas empresas.

Como aumentar a segurança da GenAI?

Inteligência Artificial

Como aumentar a segurança da GenAI?

Tratando segurança como arquitetura e não como filtro no fim do funil. Aplicações que nascem com detecção, supervisão e resposta em camadas independentes escalam com menos sustos.

Otimismo e medo: como os brasileiros veem a IA no trabalho

Inteligência Artificial

Otimismo e medo: como os brasileiros veem a IA no trabalho

Pesquisa mostra que 85% dos trabalhadores acham que a IA vai impactar seus empregos. O Brasil é o mais otimista da América Latina, mas também sente medo de ser substituído