Desde 2013, Matt Bors vem ganhando a vida como cartunista de esquerda na internet. O site dele, The Nib, publica cartuns de sua autoria e de outros contribuintes que fazem graça constantemente com os movimentos conservadores e de direita com comentários políticos repletos de ironia.
Um desenho publicado em dezembro tinha como alvo o grupo Proud Boys, de extrema direita. Abusando da ironia, Bors batizou o trabalho de “Boys Will Be Boys” (coisa de menino, em tradução livre) e retratou um recrutamento no qual novos integrantes dos Proud Boys treinavam para ser “irritadiços” e “gritar ofensas contra adolescentes” enquanto jogam videogame.
Dias depois, o Facebook enviou a Bors uma mensagem dizendo que “Boys Will Be Boys” tinha sido removido de sua página do Facebook por “pregar a violência” e que ele estava sob vigilância por violar as políticas de conteúdo do site.
Não foi a primeira vez que o Facebook o penalizou. No ano passado, a rede social tirou do ar brevemente outro cartum de Nib – uma crítica irônica à resposta do ex-presidente Donald Trump à pandemia, defendendo em essência o uso de máscaras em público – por “disseminar informações falsas” a respeito do coronavírus.
O que Bors encontrou foi o resultado de duas forças opostas se desenrolando no Facebook. Nos anos mais recentes, a empresa se tornou mais proativa na restrição a determinados tipos de discurso político, reprimindo publicações a respeito de grupos extremistas minoritários ou que apelassem à violência. Em janeiro, o Facebook proibiu todas as publicações de Trump no site depois que ele incitou uma multidão a invadir o Capitólio dos EUA.
Ao mesmo tempo, de acordo com pesquisadores da desinformação, o Facebook tem dificuldade em identificar a sátira, um conteúdo político mais sutil e escorregadio. Embora a sátira e a ironia sejam comuns nos discursos cotidianos, os sistemas de inteligência artificial da empresa (e até os moderadores humanos) encontram dificuldade em distingui-los. Isso ocorre porque tais discursos dependem de nuance, implicação, exagero e paródia para expor seu conteúdo.
Isso significa que às vezes o Facebook interpreta incorretamente a intenção de caricaturas políticas, que são derrubadas por engano. A empresa reconheceu que parte dos cartuns vetados – incluindo os de Bors – foram removidos por engano e foram posteriormente restaurados.
“Se as redes sociais vão finalmente assumir a responsabilidade de moderar o conteúdo de incitação à violência, as teorias da conspiração e o discurso de ódio, então elas terão de aprender um pouco a respeito de como interpretar a sátira”, disse Bors, 37 anos.
Emerson T. Brooking, pesquisador residente do Atlantic Council que estuda plataformas digitais, disse que o Facebook “não tem uma boa resposta para a sátira porque não há boa resposta para a sátira”. Ele acrescentou que a sátira mostra os limites de uma política de moderação de conteúdo e pode significar que uma empresa de rede social precisa de uma abordagem mais direta para identificar esse tipo de conteúdo.
Muitos dos cartunistas políticos que tiveram o trabalho removido pelo Facebook eram de esquerda, indicando como a rede social às vezes silencia vozes liberais. Os conservadores já acusaram o Facebook e outras plataformas da internet de suprimirem apenas opiniões de direita.
Em comunicado, o Facebook não comentou se tem problemas para identificar sátiras. Em vez disso, a empresa disse que dá espaço ao conteúdo satírico – mas somente até certo ponto. Publicações a respeito de grupos de ódio e conteúdo extremista só são aceitas se condenarem claramente esse conteúdo ou promoverem um debate neutro, pois caso contrário o risco de danos reais seria grande demais.
As dificuldades do Facebook na moderação de conteúdo em sua rede social principal, no Instagram, no Messenger e no WhatsApp foram amplamente documentadas. Depois que os russos manipularam a plataforma antes da eleição presidencial americana de 2016 disseminando publicações inflamatórias, a empresa recrutou milhares de moderadores terceirizados para evitar que o episódio se repetisse. Desenvolveu também sofisticados algoritmos de filtragem de conteúdo.
O Facebook também criou um processo para que apenas compradores verificados pudessem comprar espaço publicitário político, e instituiu políticas contra o discurso de ódio para limitar publicações contendo mensagens antissemitas ou de supremacismo branco. As informações são do jornal The New York Times.