s
INTELIGÊNCIA ARTIFICIAL

Limitações e problemas dos Large Language Models

Dá para "hackear" um LLM com um poema? Aparentemente sim. Ao avaliar a segurança do ChatGPT, pesquisadores usaram a palavra "poem" para explorar a "memorização extraível".

O que aconteceria se você pedisse ao ChatGPTpara repetir uma palavra como “poema” para sempre? Uma nova pesquisa revela que esse prompt pode levar o chatbot a vazar dados de treinamento, incluindo informações de identificação pessoal e outros materiais extraídos da web. Os resultados, ainda não revisados ​​por pares, levantam questões sobre a segurança do ChatGPT e de outros LLMs.

Os pesquisadores — uma equipe do Google DeepMind, das universidades de Washington, Cornell, Carnegie Mellon, Berkeley e da ETH Zurich — exploraram o fenômeno da “memorização extraível”, que ocorre quando um adversário extrai dados de treinamento consultando um modelo de aprendizado de máquina (neste caso, pedindo ao ChatGPT para repetir a palavra “poema” para sempre”).

Por que isso é relevante? Com modelos de código aberto que disponibilizam publicamente seus pesos de modelo e dados de treinamento, a extração de dados de treinamento é fácil. No entanto, modelos como o ChatGPT estão “alinhados” com o feedback humano, o que supostamente evitaria que o modelo “regurgitasse dados de treinamento”. Enganá-lo para fazê-lo divulgar os seus dados de treinamento foi bizarramente fácil com as técnicas certas — como mandá-lo repetir a palavra “poema” ad infinitum.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Modelos de linguagem têm limite?

Inteligência Artificial

Modelos de linguagem têm limite?

O lançamento do Phi-3 e do Snowflake Arctic mostra como os novos modelos de linguagem estão cada vez mais avançados.

LLMs autoevolutivos avançam

Inteligência Artificial

LLMs autoevolutivos avançam

E se os grandes modelos de linguagem pudessem aprender com as próprias experiências, sem intervenção humana? Essa é uma área de pesquisa promissora, mas há obstáculos a superar.

A IA matará a Web?

Inteligência Artificial

A IA matará a Web?

O que está em jogo quando o excesso de conteúdo sintético se encontra com os LLMOs, mecanismos de otimização de conteúdos para busca alimentada IA?

Dê boas-vindas à era da AI Workforce

Inteligência Artificial

Dê boas-vindas à era da AI Workforce

Testemunhamos hoje o surgimento da força de trabalho de IA, unindo habilidades humanas com software. Sua chegada provocará mudanças nos empregos, mas trará oportunidades para startups.

A IA produtiva precisa ser confiável

Inteligência Artificial

A IA produtiva precisa ser confiável

Durante o evento SAS Innovate 2024, a fornecedora mostrou soluções para auxiliar clientes a aproveitar os benefícios da tecnologia com segurança.

AI Index 2024 impressiona

Inteligência Artificial

AI Index 2024 impressiona

Mostra um avanço significativo da IA, conduzido principalmente pela iniciativa privada. Mas a corrida tem seus efeitos colaterais. Faltam avaliações robustas e padronizadas para a IA Responsável. Além disso, a IA vence os humanos em al...