The Shift

O julgamento Gonzalez v. Google e o futuro da Internet

A estudante Nohemi Gonzalez foi morta nos ataques terroristas de Paris, em 2015. No ano seguinte, seus pais processaram o Google, argumentando que eles teriam espalhado conteúdo terrorista via YouTube. Segundo os pais de Nohemi, as techs seriam corresponsáveis pela morte da jovem. Oito anos depois, é esse processo que chega à Suprema Corte nos Estados Unidos, levantando o temor de que pode colocar a internet em xeque.

Mas, vamos voltar várias décadas no tempo, até o século XX.

As decisões proferidas nos casos Cubby v. CompuServe (1991) e Stratton Oakmont v. Prodigy (1995) foram responsáveis pela criação do conceito de que quando há moderação, há responsabilidade por parte da plataforma. Quando não há moderação, não há responsabilidade.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

A lógica é interessante, mas ela deixou de ser aplicada na prática há muito tempo. Por quê?

Porque em 1996, o então presidente Bill Clinton assinou uma lei chamada ‘Communications Decency Act’. A seção de número 230 dessa lei se tornou mais conhecida que a própria lei, ao abrir o terreno para que a internet, que praticamente nascia naquela década, florescesse.

O trecho de maior interesse está mais especificamente no item (c) da Seção 230.

Repare bem. No primeiro trecho em destaque, a lei diz que uma plataforma não é responsável pelo conteúdo de terceiros.

Mas, em nenhum lugar, ela diz que a plataforma torna-se responsável no caso de haver moderação. De fato, essa responsabilidade não ficou claramente definida.

No segundo trecho, a lei dá outra liberdade para as plataformas: não ser responsabilizadas, mesmo se retirarem, “voluntariamente ou de boa-fé”, material que não seja aceitável. Usando qualificações bem específicas, como “obsceno, ou excessivamente violento, ou intimidador”, a lei também fala em conteúdos “questionáveis”.

Ou seja, a redação da lei caprichou nos direitos, mas deixou uma grande ambiguidade com relação aos deveres. Não havendo clareza na lei, a Corte foi criando jurisprudência de que as plataformas poderiam fazer moderação sem se tornar responsáveis por todo o conteúdo.

Essa moderação foi muito além de combater pornografia infantil e outras coisas tão graves quanto. Já houve moderação em informações relacionadas ao mercado de ações e no caso de um homem fingindo ser uma atriz da série Star Trek (?!) em um site de encontros.

Desse modo, a Seção 230, somada à  jurisprudência dos últimos anos, nos trouxe a um cenário onde as plataformas podem fazer o que quiserem, sem se tornarem corresponsáveis por nada.

Porém, nos últimos anos entrou uma nova variável nessa história: o tal do algoritmo, que pode fazer com que um conteúdo seja visto amplamente, ou não seja visto por ninguém.

De fato, excluir um conteúdo é uma coisa, fazer com que ele não seja recomendado, ou se espalhe rapidamente, é outra bem diferente.

Voltando ao caso em pauta, repare que a questão essencial no caso Gonzalez v. Google é a recomendação feita pelo algoritmo e não a moderação do conteúdo.

Como era de esperar, os juízes estão tendo dificuldade em responder sobre um problema de recomendação algorítmica de conteúdo, com base em uma lei que fala apenas sobre moderação de conteúdo.

Não é só uma questão semântica. Hospedar um conteúdo é, de fato, algo bem diferente de promover esse mesmo conteúdo. Porém, as redes sociais estão sendo cada vez mais baseadas em algoritmos. Se o conteúdo faz sucesso, ele aparece para cada vez mais pessoas.

A internet moderna funciona dessa forma. Proibir o uso de algoritmos seria o mesmo que fazer a internet regredir alguns bons anos. Produtos como o TikTok e o Reels, por exemplo, deixariam de fazer sentido em uma internet não algorítmica.

No entanto, os algoritmos podem trazer consequências realmente perigosas. Assuntos polêmicos possuem maior potencial de viralização e o algoritmo pouco se importa sobre a natureza e o teor ético do que está sendo viralizado.

Além disso, algoritmos podem ser programados, em um cenário político, por exemplo, para viralizar conteúdos que sejam favoráveis a um candidato, mas não os que sejam favoráveis ao seu adversário. Na realidade, a gente sabe que a intervenção humana sempre acontece em algum grau.

O dilema não é simples. No caso da vitória de Gongalez, podemos ter uma Internet mais regulada e com menos inovação. No caso da vitória do Google, liberdade total e irrestrita para as big techs.

Em meio a esse desafio, os juízes da Suprema Corte estão sem saber o que fazer. Na reportagem da CNN, a juíza Elena Kagan argumenta: “somos um tribunal. Nós realmente não sabemos dessas coisas. Não somos os nove maiores especialistas da internet”, referindo-se ao fato de que a Suprema Corte hoje tem nove participantes.

De fato, as excelências da Suprema Corte não são os maiores especialistas no assunto. Mas, cá entre nós, o problema não é só com eles. Infelizmente, até mesmo os especialistas em internet estão longe de oferecer uma resposta para esse novo desafio dos nossos tempos.