Há mais de um ano, o Google anunciou o Language Model for Dialogue Applications (LaMDA) , sua mais recente inovação em tecnologia de conversação que pode se envolver de maneira fluida em um número aparentemente infinito de tópicos, desbloqueando maneiras mais naturais de interagir com a tecnologia, com várias aplicações potenciais.
Pois o sistema LaMDA vem mexendo com o imaginário dos leigos e com os brios dos pesquisadores de IA, desde que o engenheiro Blake Lemoine, contratado pelo Google, informou aos seus superiores que o LaMDA se tornou senciente. Em outras palavras, adquiriu alguma consciência. A resposta do Google foi de que não há evidências de que a alegação seja verdadeira. Em compensação, sobram evidências de antropomorfismo. Qualquer um de nós que leia o diálogo de seus engenheiros com o sistema de IA pode ser perdoado por imaginar que a máquina tenha sentimentos. Então, o que realmente está acontecendo?
Bom, a maioria dos técnicos concorda que as grandes redes neurais de hoje já conseguem produzir resultados bem próximos da fala e da criatividade humanas, devido aos avanços na sua arquitetura, técnica e no volume de dados nos quais são treinadas. Desde o Eliza, esses modelos evoluíram muito. Estão cada vez melhores no reconhecimento de padrões. E, talvez, consigam até estabelecer relações semânticas semelhantes às dos humanos, em sua primeira infância. Mas embora os Transformers e os Foundation models estejam fazendo progressos espetaculares no domínio da linguagem natural (por associação), atingindo uma fluência linguística perturbadora a ponto de mimetizarem o comportamento humano, eles ainda não entendem o que fazem e, menos ainda, sentem o que já conseguem expressar.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Organizações e corporações internacionais estão correndo para desenvolver diretrizes globais para o uso ético da inteligência artificial
Há casos de uso em que a empatia pode ser útil em sistemas de IA? Ou ao aprender e introduzir sentimentos humanos, as máquinas podem acabar nos colocando em risco?
O que está em jogo? Tornar a tecnologia melhor para os negócios e para os humanos, apostando no trabalho de super equipes e no controle das ameaças decorrentes do viés algorítmico
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso