Grupos radicais tendem a criar suas próprias plataformas digitais para fugir de restrições de conteúdo, que se mostraram mais necessárias durante a pandemia
As grandes empresas de tecnologia que administram redes sociais estão, mais do que nunca, sentindo-se pressionadas a alterar suas políticas de combate à desinformação e ao discurso de ódio. A pandemia de covid-19 tem exercido forte influência nesse sentido, em virtude da constatação de que notícias falsas ou distorcidas envolvendo a doença causam danos à saúde e à vida das pessoas. Trata-se de um momento muito importante, em que decisões tomadas tanto por essas empresas quanto por órgãos de regulação estatais podem causar impactos profundos no cenário do debate público ao longo dos próximos anos.
No Brasil, vários movimentos indicam a mudança de postura das plataformas digitais. Publicações em que o presidente Jair Bolsonaro negava a gravidade da pandemia e aparecia, em vídeos, cumprimentando pessoas na rua e gerando aglomerações foram excluídas do Twitter, do Facebook e do Instagram recentemente. No início de julho, foram banidas algumas contas vinculadas a assessores do presidente e de seus filhos por comportamento que fere os termos de uso do Facebook. Já um projeto de lei voltado ao combate à desinformação foi aprovado no Senado Federal.
O Twitter também fechou o cerco contra Donald Trump, inserindo avisos contra o conteúdo inverídico em algumas de suas publicações. O presidente dos EUA colocava em dúvida a confiabilidade do voto pelo correio no país, que pode se mostrar necessário em decorrência das recomendações de distanciamento social serem a principal forma de controlar a disseminação do novo coronavírus. Em resposta à ação da plataforma, Trump expediu uma ordem executiva com potencial de ampliar a responsabilização das empresas por conteúdos postados pelos usuários. Apesar de o Facebook ter discordado dessa postura no início, agora se vê obrigado a repensar seus planos, em função de uma campanha de boicote à publicidade em suas plataformas, apoiada por uma série de grandes empresas. O Reddit excluiu um fórum de apoiadores de Trump, enquanto o Twitch suspendeu sua conta de campanha.
Combate a desinformação pressiona as plataformas digitais
Essa pressão sobre as redes sociais não é uma novidade. Há muitos anos discutem-se formas de combate à desinformação e ao discurso de ódio nessas plataformas. Porém, boa parte delas sempre manteve uma retórica de defesa da liberdade de expressão quase absoluta. São vários os motivos que explicam esse discurso, mas dois devem ser destacados: em primeiro lugar, a estratégia de não serem confundidas com empresas de mídia, e assim evitar a responsabilização pelo conteúdo postado pelos usuários; em segundo lugar, como quase todas estão sediadas nos EUA, seguem a doutrina bastante protetora da liberdade de expressão do país, segundo a qual devem ser limitadas apenas as “incitações à ação legal iminente”, isto é, quando há risco de que a expressão possa causar algum dano concreto.
Em anos anteriores, as gigantes de tecnologia precisaram reconhecer que, em alguns casos, notícias falsas e discurso de ódio podem contribuir concretamente para a violência. O Facebook admitiu, por exemplo, que a disseminação de notícias falsas contribuiu diretamente para diversos ataques perpetrados contra membros da minoria muçulmana rohingya em Mianmar. O WhatsApp, do mesmo grupo econômico do Facebook, limitou o número de compartilhamento de mensagens após informações falsas motivarem linchamentos na Índia.
Outro fator que se somou à onda de pressão sobre as redes sociais foram os protestos subsequentes ao assassinato de George Floyd por um policial nos EUA. A cena revoltante da morte por asfixia estimulou manifestações naquele país e depois em vários outros lugares do mundo, exigindo medidas mais concretas de combate ao racismo. Certamente, os danos econômicos e sociais causados pela pandemia também contribuíram para o aumento da indignação, já que vários estudos apontam que a população tem sido atingida de forma extremamente desigual, com os negros entre os mais prejudicados.
O negacionismo expresso por políticos de extrema direita quanto a esses problemas sociais também se estendeu para a pandemia. A partir de março, mês em foram adotadas medidas mais radicais de distanciamento social em todos os continentes, houve a disseminação de diversas notícias falsas, seja sobre a origem do vírus, a eficácia de medidas recomendadas pela OMS (Organização Mundial de Saúde) ou a existência de curas milagrosas. Esse negacionismo não se restringe à extrema direita, mas, em especial nos EUA e no Brasil, foram os presidentes Trump e Bolsonaro e seus apoiadores que mais ajudaram a disseminar desinformação sobre a doença.
Trata-se de fato notório que a onda de extrema direita que atingiu vários países se alimentou da dinâmica das redes sociais, como Twitter, Facebook e YouTube. A mudança de postura dos administradores dessas plataformas em semanas recentes, em decorrência das pressões advindas da sociedade, de governos e de grandes empresas, causou uma migração de extremistas para uma plataforma que garante liberdade praticamente absoluta, chamada Parler.
Criada em 2018 pelo americano John Matzer, a plataforma ainda é muito pequena em comparação às gigantes, mas começou a ganhar relevância quando apoiadores de Donald Trump passaram a se inscrever nela, alegando que seriam “perseguidos” pelas redes sociais tradicionais. Como não poderia deixar de ser, os apoiadores de Jair Bolsonaro seguiram o mesmo caminho no Brasil. O próprio presidente brasileiro já tem um perfil na plataforma, assim como seus filhos.
Esse movimento é relevante por diversas razões. Em anos recentes, costumou-se dizer que os algoritmos das redes sociais formavam “bolhas” nas quais as pessoas apenas acompanhavam opiniões semelhantes às delas; agora, há uma tendência de que a bolha de extrema direita migre parcialmente para outra plataforma. Isso deve dificultar ainda mais o diálogo e tende a criar um nicho mais radicalizado de pessoas que se sentirão à vontade para proferir discursos de ódio e compartilhar desinformação. Além disso, será mais difícil o acompanhamento pela imprensa e pela sociedade em geral do conteúdo postado pelas pessoas desse espectro político, já que se trata de uma rede social ainda pouco povoada.
Não é plausível imaginar que haverá um abandono completo das grandes redes sociais por parte dos políticos de extrema direita e seus apoiadores, já que elas ainda são importantes para se comunicar com boa parte da população, além de serem “termômetros” da opinião pública. Deve haver, no entanto, uma certa segmentação de conteúdo. Isto é, as ideias mais radicais e, dependendo do caso, ilícitas, serão deixadas para o Parler, fugindo-se, assim, do controle exercido pelas grandes plataformas, consideradas “esquerdistas” por eles.
A pandemia do novo coronavírus escancarou, portanto, o problema da disseminação de discurso de ódio e de desinformação nas redes sociais. Esses conteúdos produzem efeitos não apenas no campo simbólico, mas estimulam comportamento antissocial e violência contra os setores mais vulneráveis da população. Não se deve pensar, porém, que a adoção de medidas mais concretas pelas grandes redes sociais representa uma vitória definitiva. Na verdade, a polarização dentro das redes deve passar por uma mutação, chegando-se agora à polarização entre redes, situação na qual parte delas controlará o conteúdo postado, enquanto a outra parte garantirá liberdade praticamente absoluta aos usuários.
Publicado no Nexo Jornal.