s
INTELIGÊNCIA ARTIFICIAL

Limitações e problemas dos Large Language Models

Dá para "hackear" um LLM com um poema? Aparentemente sim. Ao avaliar a segurança do ChatGPT, pesquisadores usaram a palavra "poem" para explorar a "memorização extraível".

O que aconteceria se você pedisse ao ChatGPTpara repetir uma palavra como “poema” para sempre? Uma nova pesquisa revela que esse prompt pode levar o chatbot a vazar dados de treinamento, incluindo informações de identificação pessoal e outros materiais extraídos da web. Os resultados, ainda não revisados ​​por pares, levantam questões sobre a segurança do ChatGPT e de outros LLMs.

Os pesquisadores — uma equipe do Google DeepMind, das universidades de Washington, Cornell, Carnegie Mellon, Berkeley e da ETH Zurich — exploraram o fenômeno da “memorização extraível”, que ocorre quando um adversário extrai dados de treinamento consultando um modelo de aprendizado de máquina (neste caso, pedindo ao ChatGPT para repetir a palavra “poema” para sempre”).

Por que isso é relevante? Com modelos de código aberto que disponibilizam publicamente seus pesos de modelo e dados de treinamento, a extração de dados de treinamento é fácil. No entanto, modelos como o ChatGPT estão “alinhados” com o feedback humano, o que supostamente evitaria que o modelo “regurgitasse dados de treinamento”. Enganá-lo para fazê-lo divulgar os seus dados de treinamento foi bizarramente fácil com as técnicas certas — como mandá-lo repetir a palavra “poema” ad infinitum.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Inteligência Artificial: Autorraciocínio, a próxima fronteira

Inteligência Artificial

Inteligência Artificial: Autorraciocínio, a próxima fronteira

Entenda mais sobre o conceito que pode revolucionar como as Inteligências Artificiais fazendo elas mais confiáveis, adaptáveis ​​e capazes.

Experiência do Cliente: o que vai mudar com a integração da IA Generativa até 2027

Inteligência Artificial

Experiência do Cliente: o que vai mudar com a integração da IA Gene...

A integração da Inteligência Artificial a CX trará com um volume de interações com o cliente cinco vezes maior nos próximos três anos

IA Generativa: produtividade cresce de 7% a 18% nas organizações

Inteligência Artificial

IA Generativa: produtividade cresce de 7% a 18% nas organizações

Pesquisa do Capgemini Research Institute mostrou que as organizações que apostaram cedo na IA Generativa já estão colhendo bons resultados

Habilidades para Inteligência Artificial: chegou a hora de treinar em escala?

Inteligência Artificial

Habilidades para Inteligência Artificial: chegou a hora de treinar em...

A S&P Global anunciou que fará esse bootcamp para tornar 35 mil funcionários mais "fluentes" em IA Generativa. O que isso pode significar para outras companhias?

A Inteligência Artificial pode se tornar

Inteligência Artificial

A Inteligência Artificial pode se tornar "viciante"?

Essa é uma pergunta válida: pesquisadores e até figuras importantes do mercado apontam como os humanos podem ficar dependentes da IA

Inteligência Artificial e o fator humano: O sucesso da IA depende do envolvimento dos funcionários

Inteligência Artificial

Inteligência Artificial e o fator humano: O sucesso da IA depende do...

Escutar as vozes de sua equipe só irá melhorar a implementação e desenvolvimento de uma Inteligência Artificial, explicam pesquisadores do MIT