Redes sociais gigantes como Facebook, Twitter e Instagram operam há anos sob dois princípios. O primeiro é que as plataformas têm o poder de decidir quais conteúdos conservar online e quais remover. O segundo é que os sites não podem ser legalmente responsabilizados pela maior parte do que seus usuários postam online.
A Suprema Corte dos Estados Unidos está prestes a rever essas normas, potencialmente levando à reformulação mais importante das doutrinas que regem o discurso online desde que autoridades e tribunais do país decidiram submeter a web a alguns regulamentos, nos anos 90.
Dois casos
Dois casos apresentados por parentes de vítimas de ataques terroristas dizem que as empresas de mídia social são responsáveis por alimentar a violência com seus algoritmos.
O primeiro caso, Gonzalez versus Google, que teve sua primeira audiência na terça-feira, pede ao mais alto tribunal para determinar se o YouTube, o site de vídeos de propriedade do Google, deve ser responsabilizado por recomendar vídeos terroristas do Estado Islâmico. O segundo tem como alvo o Twitter e o Facebook, além do Google, com alegações semelhantes.
Juntos, eles podem representar o desafio mais importante até agora para a Seção 230 da Lei de Decência nas Comunicações, um estatuto que protege empresas de tecnologia como o YouTube de serem responsabilizadas pelo conteúdo compartilhado e recomendado por suas plataformas. Grupos de liberdades civis apontam que o estatuto oferece proteções valiosas para a liberdade de expressão, dando às plataformas de tecnologia o direito de hospedar uma série de informações sem censura indevida.
Enquanto jornais e revistas podem ser processados em razão dos conteúdos que publicam, a Seção 230 protege as plataformas online contra ações judiciais envolvendo a maioria do conteúdo postado por seus usuários. Com os dois processos, a Suprema Corte dos EUA está sendo instada a determinar se a imunidade concedida pela Seção 230 se estende às plataformas quando elas também estão fazendo “recomendações direcionadas de informações”. Uma decisão a favor da responsabilização do YouTube poderia expor todas as plataformas, grandes e pequenas, a possíveis litígios sobre o conteúdo dos usuários.
Terrorismo
A empresa controladora do YouTube, Google, está sendo processada pela família de Nohemi Gonzalez, uma americana de 23 anos que estudava em Paris em 2015 quando foi morta em ataques coordenados pelo Estado Islâmico. A família pretende apelar de uma decisão que sustentava que a Seção 230 protege o YouTube de ser responsabilizado por recomendar conteúdo que incite ou convoque atos de violência. Nesse caso, o conteúdo em questão eram vídeos de recrutamento do Estado Islâmico.
No caso Twitter versus Taameneh, parentes da vítima de um ataque terrorista em 2017 supostamente realizado pelo EI acusaram as empresas de mídia social de serem as culpadas pelo aumento do extremismo.
“É um momento em que tudo pode mudar”, disse Daphne Kelly, advogada e diretora de um programa no Centro de Política Cibernética da Universidade Stanford.
Disputa legal
Os processos fazem parte de uma disputa legal crescente sobre como lidar com discursos online nocivos. Nos últimos anos, à medida que o Facebook e outros sites foram atraindo bilhões de usuários e convertendo-se em canais influentes de comunicação, o poder que exercem passou a ser alvo de atenção.
Por anos, juízes citaram a Seção 230 quando rejeitaram queixas contra Facebook, Twitter e YouTube, garantindo desse modo que as empresas não fossem legalmente responsabilizadas com cada postagem e vídeo que viralizava.
A própria Suprema Corte já havia se negado a ouvir outras ações judiciais que contestaram o estatuto. Desta vez, os resultados do caso serão observados de perto, disse ao jornal britânico The Guardian Paul Barrett, vice-diretor do NYU Stern Center for Business and Human Rights.