s
INTELIGÊNCIA ARTIFICIAL

Limitações e problemas dos Large Language Models

Dá para "hackear" um LLM com um poema? Aparentemente sim. Ao avaliar a segurança do ChatGPT, pesquisadores usaram a palavra "poem" para explorar a "memorização extraível".

O que aconteceria se você pedisse ao ChatGPTpara repetir uma palavra como “poema” para sempre? Uma nova pesquisa revela que esse prompt pode levar o chatbot a vazar dados de treinamento, incluindo informações de identificação pessoal e outros materiais extraídos da web. Os resultados, ainda não revisados ​​por pares, levantam questões sobre a segurança do ChatGPT e de outros LLMs.

Os pesquisadores — uma equipe do Google DeepMind, das universidades de Washington, Cornell, Carnegie Mellon, Berkeley e da ETH Zurich — exploraram o fenômeno da “memorização extraível”, que ocorre quando um adversário extrai dados de treinamento consultando um modelo de aprendizado de máquina (neste caso, pedindo ao ChatGPT para repetir a palavra “poema” para sempre”).

Por que isso é relevante? Com modelos de código aberto que disponibilizam publicamente seus pesos de modelo e dados de treinamento, a extração de dados de treinamento é fácil. No entanto, modelos como o ChatGPT estão “alinhados” com o feedback humano, o que supostamente evitaria que o modelo “regurgitasse dados de treinamento”. Enganá-lo para fazê-lo divulgar os seus dados de treinamento foi bizarramente fácil com as técnicas certas — como mandá-lo repetir a palavra “poema” ad infinitum.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

A monetização via anúncios chegou às buscas de IA

Inteligência Artificial

A monetização via anúncios chegou às buscas de IA

O desafio agora é manter neutralidade e valor estratégico em um ambiente que tende à manipulação invisível.

A corrida da IA é vencida (ou perdida) na camada de dados

Inteligência Artificial

A corrida da IA é vencida (ou perdida) na camada de dados

Relatórios da IBM e da Deloitte apontam na mesma direção: empresas só extraem valor de IA quando CDOs garantem governança, integração e métricas consistentes para os dados.

O fim da fricção: a ascensão das empresas superfluidas e o futuro híbrido entre humanos e IA

Inteligência Artificial

O fim da fricção: a ascensão das empresas superfluidas e o futuro h...

Relatório da EY revela como IA agêntica, contratos inteligentes, robótica e neurotecnologias estão transformando empresas em ecossistemas autônomos e superfluídos

Inovação aberta no Brasil: país entra em fase de transformação estrutural

Inteligência Artificial

Inovação aberta no Brasil: país entra em fase de transformação es...

Com 73% das empresas operando programas estruturados e 91% priorizando IA e dados, o país supera o ciclo experimental e transforma colaboração com startups em estratégia central de negócios

Por que muitos pilotos de IA não entregam valor ?

Inteligência Artificial

Por que muitos pilotos de IA não entregam valor ?

Como sair do 'purgatório' da experimentação para resultados reais

Por Alexandre Kavinski - especial para The Shift*
Quatro tensões redesenham a gestão na era da IA Agêntica

Inteligência Artificial

Quatro tensões redesenham a gestão na era da IA Agêntica

São rupturas estruturais que exigem mais das organizações do que a mera adoção de uma nova tecnologia, aponta o novo relatório do MIT em parceria com o BCG.