Na semana passada, Elon Musk bateu o martelo e encerrou a novela de quase seis meses, comprando o Twitter por U$44 bilhões de dólares. Considerando o valor de mercado atual, e os desafios macroeconômicos e de privacidade que o setor enfrenta, me parece difícil ver uma perspectiva de valorização do negócio — mas com capital fechado, o valor do Twitter agora vai ser um problema apenas para Musk e seu grupo de investidores.
Mas por incrível que pareça, Musk tem um desafio que consegue ser ainda maior que a realização do upside financeiro do Twitter. Esse desafio diz respeito à moderação de conteúdo, e nesse dilema, ele se encontra no mesmo barco que Google, Facebook e outras plataformas.
O problema, nesse caso, é que é simplesmente impossível criar uma regra que seja clara e justa sobre quais são os limites do que pode ser dito e muito menos para quem caberia o papel criar e aplicar essas regras. Por que? Porque o produto de uma rede social não pode ser outra coisa senão as próprias pessoas que produzem e consomem conteúdo. Na maior parte das empresas, as pessoas são um meio para que um determinado produto seja produzido. Nesse caso, um bom programa de six sigma pode fazer com que 99,99966% dos produtos sejam fabricados sem defeito.
Nos produtos, a uniformidade é a regra e o objetivo. Entre as pessoas, a diferença de opinião é que é o normal e desejável. Na verdade, essa diferença de pensamento é um dos motivos para a existência de redes sociais.
Ah, mas e os extremistas? Na realidade, esse conceito só pode ser aplicado de forma literal quando nos referimos a objetos que saíram de um certo padrão — mas não à forma de pensar de homens e mulheres livres. O fato desse termo estar sendo usado com ares de descrição literal não faz com que ele seja, de fato, uma descrição literal.
Quando estamos falando de pessoas, não há uma curva normal que possa ser desenhada para as opiniões emitidas. De fato, essa análise de desvio padrão só faria sentido em uma ditadura, situação em que um grupo tem o poder de determinar aquilo que deve ou não deve ser dito.
Muito bem. Regras são necessárias. Mas quem é que deu legitimidade a esse grupo para definir o que pode ou não ser dito? Esse grupo vai realmente abstrair os interesses que Musk tem com a Tesla na China? E no Irã, como eles vão lidar com o fato que pessoas têm sido mortas devido a posts em redes sociais?
Na ilusão libertária, cada empresa poderia definir as suas regras como bem desejar e, de acordo com as regras que tivessem sido definidas, as pessoas poderiam optar pelo uso da redes sociais mais coerentes com a sua forma de pensar.
A princípio, a lógica faz algum sentido. De fato, é exatamente isso que a gente faz com a maior parte dos produtos que nós consumimos. O problema é que as redes sociais são regidas por uma lógica de ‘winner takes it all’ devido aos efeitos de rede que acontecem nesse tipo de produto. Elas podem perder ou ganhar mercado, mas é difícil que redes sociais relevantes possam vir a existir em um número mais elevado.
Com isso, não há concorrência de fato, mas apenas a escolha entre um pequeno número de opções, que não raro fazem a sua moderação de conteúdo usando uma lógica muito parecida fazendo com que a concorrência entre elas fique apenas na teoria.
Nos EUA, onde fica a sede da maior parte dessas empresas, essa questão é regida pela Seção 230, uma lei cuja jurisprudência foi caminhando cada vez no sentido de dar toda liberdade de moderação para as plataformas mas praticamente nenhuma responsabilidade sobre o conteúdo que poderia ser problemático.
Ou seja, elas podem tirar conteúdo do ar de acordo com critérios próprios, mas não são diretamente responsáveis pelo conteúdo que está sendo veiculado por terceiros, nem mesmo quando se trata de pedofilia, terrorismo e outros temas que dispensam qualquer polêmica.
Neste momento, está correndo na Suprema Corte um processo que poderá mudar essa lógica. A depender da decisão dos juízes, as plataformas poderão se tornar responsáveis pelo conteúdo que vem sendo divulgado por meio delas.
Como tudo que envolve esse assunto, uma decisão desse tipo seria uma faca de dois gumes. A princípio, podemos ver vantagens em fazer com a liberdade das plataformas seja acompanhada por algum nível de responsabilidade.
No entanto, não havendo uma forma de dizer qual conteúdo é problemático e qual conteúdo não apresentaria maiores riscos legais, a consequência é que, em caso de dúvida, as redes sociais irão optar por reprovar cada vez mais conteúdo — afinal, o preço da aprovação de algo que seja minimamente duvidoso poderia sair caro para eles.
Além do problema da moderação, ainda existem as questões da monetização e do alcance. Em um tipo de moderação mais sutil, as plataformas podem fazer com que certos conteúdos não sejam monetizados ou tenham um alcance reduzido — o que não deixar ser uma forma mais velada de moderação.
De qualquer forma que essas regras forem definidas, grupos ficarão insatisfeitos — e com toda razão. No final das contas, não dá para existir uma rede social absolutamente sem moderação, mas também não é possível existir moderação de conteúdo que não seja baseada na visão de mundo particular daquele grupo de moderadores.
Infelizmente, não podemos esperar soluções que passem nem perto da perfeição — o problema é que também não podemos ter uma postura de “tanto faz”. Afinal, o arranjo que for dado para essa questão fará toda a diferença tanto para os níveis de segurança quanto de liberdade de expressão que podermos ter nos próximos anos.
Rodrigo Fernandes também é colunista da newsletter Daily Muffin, da Pingback. Esse artigo foi publicado originalmente na edição 173.