s
Crédito: Stefan Cosma/Unsplash
INTELIGÊNCIA ARTIFICIAL

Vale dar um pouco de consciência à IA?

Organizações e corporações internacionais estão correndo para desenvolver diretrizes globais para o uso ético da inteligência artificial

Nas últimas semanas, especialistas de todo o mundo se debruçaram sobre um tema espinhoso: a possibilidade de as máquinas adquirirem autoconsciência quando se tornarem suficientemente complexas. Isoladas, ou operando em rede, elas poderiam adquirir alguma autoconsciência, manifestada em contextos específicos, como quando somos confrontados com informações que nos forçam a reavaliar nosso ambiente e, em seguida, tomar uma decisão executiva sobre o que fazer a seguir, como já fazem alguns robôs?

Pesquisadores de IA, como Yoshua Bengio, diretor da Mila, estão cada dia mais influenciados pela neurociência e determinados a investigar se as redes neurais podem e devem atingir os mesmos níveis elevados de cognição que ocorrem no cérebro humano. A esperança é a de que um nível de percepção análogo à consciência em humanos possa tornar as IAs futuras muito mais inteligentes.

Mas dar às máquinas o poder de pensar assim também acarreta riscos - e incertezas éticas. Por isso, organizações e corporações internacionais estão correndo para desenvolver diretrizes globais para o uso ético da inteligência artificial. Que, quase sempre, passa pela ideia de evitar vieses e desenvolver uma IA mais justa, explicável e responsável.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Pricing: onde a IA gera ROI verificável

Inteligência Artificial

Pricing: onde a IA gera ROI verificável

Enquanto 90% das iniciativas de IA ainda não saíram do piloto, o pricing B2B já tem resultados no P&L

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Inteligência Artificial

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Quando encontrar brechas deixa de ser difícil, todo cuidado é pouco. Por isso, a Anthropic lançou o modelo para apenas 50 empresas parceiras. O Project Glasswing inaugura uma nova fase da cibersegurança.

A realidade da IA em 2026, segundo Stanford

Inteligência Artificial

A realidade da IA em 2026, segundo Stanford

O AI Index, do HAI, identifica uma dependência geopolítica que o mercado ignora e uma percepção pública construída sobre uma versão anterior da tecnologia.

O que o balanço da IA não mostra

Inteligência Artificial

O que o balanço da IA não mostra

Quando os projetos fracassam, os custos somem. Quando os funcionários ficam de fora, ninguém conta. A indústria celebra uma transformação que seus próprios dados contradizem.

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

Inteligência Artificial

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.

Limites cognitivos e a vida emocional oculta dos LLMs

Inteligência Artificial

Limites cognitivos e a vida emocional oculta dos LLMs

Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.