s
INTELIGÊNCIA ARTIFICIAL

Limitações e problemas dos Large Language Models

Dá para "hackear" um LLM com um poema? Aparentemente sim. Ao avaliar a segurança do ChatGPT, pesquisadores usaram a palavra "poem" para explorar a "memorização extraível".

O que aconteceria se você pedisse ao ChatGPTpara repetir uma palavra como “poema” para sempre? Uma nova pesquisa revela que esse prompt pode levar o chatbot a vazar dados de treinamento, incluindo informações de identificação pessoal e outros materiais extraídos da web. Os resultados, ainda não revisados ​​por pares, levantam questões sobre a segurança do ChatGPT e de outros LLMs.

Os pesquisadores — uma equipe do Google DeepMind, das universidades de Washington, Cornell, Carnegie Mellon, Berkeley e da ETH Zurich — exploraram o fenômeno da “memorização extraível”, que ocorre quando um adversário extrai dados de treinamento consultando um modelo de aprendizado de máquina (neste caso, pedindo ao ChatGPT para repetir a palavra “poema” para sempre”).

Por que isso é relevante? Com modelos de código aberto que disponibilizam publicamente seus pesos de modelo e dados de treinamento, a extração de dados de treinamento é fácil. No entanto, modelos como o ChatGPT estão “alinhados” com o feedback humano, o que supostamente evitaria que o modelo “regurgitasse dados de treinamento”. Enganá-lo para fazê-lo divulgar os seus dados de treinamento foi bizarramente fácil com as técnicas certas — como mandá-lo repetir a palavra “poema” ad infinitum.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Integridade, a capacidade que falta para a IA

Inteligência Artificial

Integridade, a capacidade que falta para a IA

Por razões técnicas e estratégicas, a AI Integrity emerge como o próximo campo crítico da segurança corporativa

A IA não vai vender software. Vai vender trabalho. E isso muda tudo

Inteligência Artificial

A IA não vai vender software. Vai vender trabalho. E isso muda tudo

Sequoia aposta em empresas que entregam resultados, não ferramentas. Mas há um problema, segundo os críticos: quando a IA substitui o trabalho, o valor desse trabalho pode desaparecer.

IA por voz escala rápido, mas onde está o valor?

Inteligência Artificial

IA por voz escala rápido, mas onde está o valor?

Avanços técnicos e crescimento acelerado ocultam um deslocamento mais profundo: a disputa deixa a infraestrutura e migra para a execução e o design da interação.

As apostas da ServiceNow na era dos agentes de IA

Inteligência Artificial

As apostas da ServiceNow na era dos agentes de IA

Em entrevista, Federico Grosso, vice-presidente da ServiceNow para a América Latina, fala sobre os planos da companhia para a região e explica porque a governança é prioritária para cuidar de uma força de trabalho de agentes autônomo...

Startups rápidas, times menores: o impacto da IA no Product-Market Fit

Inteligência Artificial

Startups rápidas, times menores: o impacto da IA no Product-Market Fi...

Ferramentas de inteligência artificial estão mudando a forma como startups testam hipóteses, constroem produtos e chegam ao mercado

A IA já funciona. O problema agora são as empresas

Inteligência Artificial

A IA já funciona. O problema agora são as empresas

Apenas uma pequena parcela das organizações conseguiu redesenhar trabalho, liderança e gestão de talentos para capturar o potencial real da Inteligência Artificial