s
INTELIGÊNCIA ARTIFICIAL

Limitações e problemas dos Large Language Models

Dá para "hackear" um LLM com um poema? Aparentemente sim. Ao avaliar a segurança do ChatGPT, pesquisadores usaram a palavra "poem" para explorar a "memorização extraível".

O que aconteceria se você pedisse ao ChatGPTpara repetir uma palavra como “poema” para sempre? Uma nova pesquisa revela que esse prompt pode levar o chatbot a vazar dados de treinamento, incluindo informações de identificação pessoal e outros materiais extraídos da web. Os resultados, ainda não revisados ​​por pares, levantam questões sobre a segurança do ChatGPT e de outros LLMs.

Os pesquisadores — uma equipe do Google DeepMind, das universidades de Washington, Cornell, Carnegie Mellon, Berkeley e da ETH Zurich — exploraram o fenômeno da “memorização extraível”, que ocorre quando um adversário extrai dados de treinamento consultando um modelo de aprendizado de máquina (neste caso, pedindo ao ChatGPT para repetir a palavra “poema” para sempre”).

Por que isso é relevante? Com modelos de código aberto que disponibilizam publicamente seus pesos de modelo e dados de treinamento, a extração de dados de treinamento é fácil. No entanto, modelos como o ChatGPT estão “alinhados” com o feedback humano, o que supostamente evitaria que o modelo “regurgitasse dados de treinamento”. Enganá-lo para fazê-lo divulgar os seus dados de treinamento foi bizarramente fácil com as técnicas certas — como mandá-lo repetir a palavra “poema” ad infinitum.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Rotulagem de dados: o “combustível cognitivo” da IA corporativa

Inteligência Artificial

Rotulagem de dados: o “combustível cognitivo” da IA corporativa

Empresas que tratam rotulagem como capex cognitivo, e não custo operacional, estão melhor preparadas para transformar aprendizado em ROI.

Vibe coding encontra a realidade corporativa

Inteligência Artificial

Vibe coding encontra a realidade corporativa

O pico de expectativas sobre vibe coding está cedendo lugar a um uso mais controlado. Em protótipos e automações locais, funciona. Em produção, sem governança, vira dívida técnica e risco.

Entre ambição e execução, o gap da IA corporativa

Inteligência Artificial

Entre ambição e execução, o gap da IA corporativa

Cisco mede a prontidão, IBM mede a transformação — juntas, expõem o ponto cego da maturidade em IA. Charlene Li mostra o caminho para atingi-la.

O CEO e a IA Agêntica: a nova dupla de comando das empresas

Inteligência Artificial

O CEO e a IA Agêntica: a nova dupla de comando das empresas

Segundo a McKinsey, liderar na era da IA Agêntica exige CEOs fluentes em tecnologia, capazes de equilibrar velocidade, confiança e responsabilidade em um modelo híbrido entre humanos e agentes inteligentes

Do hype ao humano: o que sua empresa precisa entender sobre futuro da IA no trabalho

Inteligência Artificial

Do hype ao humano: o que sua empresa precisa entender sobre futuro da...

Para que a IA gere valor real, as empresas precisam abandonar pilotos isolados e investir no que torna o trabalho mais humano

Dê boas-vindas à Era da IA Operacional

Inteligência Artificial

Dê boas-vindas à Era da IA Operacional

Em 2026, infraestrutura, governança e métricas reais começam a substituir promessas e hype, segundo novo relatório do Gartner.