s
Crédito: Stefan Cosma/Unsplash
INTELIGÊNCIA ARTIFICIAL

Vale dar um pouco de consciência à IA?

Organizações e corporações internacionais estão correndo para desenvolver diretrizes globais para o uso ético da inteligência artificial

Nas últimas semanas, especialistas de todo o mundo se debruçaram sobre um tema espinhoso: a possibilidade de as máquinas adquirirem autoconsciência quando se tornarem suficientemente complexas. Isoladas, ou operando em rede, elas poderiam adquirir alguma autoconsciência, manifestada em contextos específicos, como quando somos confrontados com informações que nos forçam a reavaliar nosso ambiente e, em seguida, tomar uma decisão executiva sobre o que fazer a seguir, como já fazem alguns robôs?

Pesquisadores de IA, como Yoshua Bengio, diretor da Mila, estão cada dia mais influenciados pela neurociência e determinados a investigar se as redes neurais podem e devem atingir os mesmos níveis elevados de cognição que ocorrem no cérebro humano. A esperança é a de que um nível de percepção análogo à consciência em humanos possa tornar as IAs futuras muito mais inteligentes.

Mas dar às máquinas o poder de pensar assim também acarreta riscos - e incertezas éticas. Por isso, organizações e corporações internacionais estão correndo para desenvolver diretrizes globais para o uso ético da inteligência artificial. Que, quase sempre, passa pela ideia de evitar vieses e desenvolver uma IA mais justa, explicável e responsável.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

IA, a colega que isola

Inteligência Artificial

IA, a colega que isola

O lançamento dos interaction models pela Thinking Machines redefine a fronteira entre homem e máquina. Mas cuidado: a tecnologia que resolve o gargalo técnico pode ser a mesma que atrofia as habilidades sociais do seu time.

A IA responsável pode eliminar a supervisão humana?

Inteligência Artificial

A IA responsável pode eliminar a supervisão humana?

Pesquisa do MIT SMR e do BCG responde: não! Painel com 31 especialistas globais indica que a supervisão humana em IA exige mais do que verificar outputs: exige julgamento em todo o ciclo de vida dos sistemas.

Sim, agentes de IA autorreplicantes já existem

Inteligência Artificial

Sim, agentes de IA autorreplicantes já existem

Em menos de um ano, a taxa de sucesso em testes de autorreplicação saltou de 6% para 81%. O tempo médio de detecção nas empresas ainda é de 10 dias.

O efeito bumerangue das demissões por IA: empresas que cortaram estão recontratando (e pagando mais caro)

Inteligência Artificial

O efeito bumerangue das demissões por IA: empresas que cortaram estã...

Uma onda de organizações que demitiu em nome da IA está refazendo o caminho, só que agora com custos 27% maiores, equipes que perderam a confiança na liderança e o conhecimento institucional que foi embora junto com os funcionários

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs estão preocupados)

Inteligência Artificial

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs e...

Mais da metade dos CEOs ouvidos pelo BCG diz que seus conselhos confundem narrativa midiática com realidade operacional da IA; 60% acreditam que estão sendo pressionados a agir rápido demais

O que a IA, educação e talentos representam para a SAS, segundo o COO Gavin Day

Inteligência Artificial

O que a IA, educação e talentos representam para a SAS, segundo o CO...

A empresa, que investe em educação de colaboradores e clientes sobre IA, se apoia em uma cultura construída ao longo de cinco décadas para se tornar diferencial num mercado em consolidação.