proteção de dados e gdpr

A nova fase de regulação das redes sociais

Frullani Lopes Marcelo Frullani 27 de julho de 2022

No dia 25 de abril, foi anunciada a compra do Twitter pelo bilionário Elon Musk. O fato causou grande alvoroço, já que o empresário nascido na África do Sul é um notório defensor da liberdade de expressão quase irrestrita nas redes sociais. Um acontecimento que gerou muito menos repercussão, mas que representa um grande passo em um processo de transição do cenário de regulação das redes sociais, foi o acordo entre Conselho e Parlamento Europeu, dois órgãos que compõem a União Europeia, quanto a uma proposta que atribui novas obrigações às empresas que administram as redes sociais.

No início dos anos 1990, quando a internet se disseminava pelo mundo, muitas pessoas defendiam que não seria desejável que o poder estatal se imiscuísse no ambiente digital, pois este deveria ser um local em que prevaleceria a liberdade individual. No entanto, essa visão utópica nunca se concretizou completamente, de modo que a internet passou a sofrer regulamentação governamental entre o final do século 20 e o início do 21.

Dentre as várias questões relevantes que foram objeto de regulamentação, destaco duas que são o foco deste artigo: (1) As empresas prestadoras de serviços na internet que permitem que usuários publiquem conteúdo próprio devem ser responsabilizadas caso esse conteúdo seja ilícito?; (2) Essas empresas devem atuar para prevenir a disseminação desse tipo de conteúdo?

De modo geral, prevaleceu nos países ocidentais o entendimento de que, como regra, as empresas não devem ser responsabilizadas por conteúdo ilícito publicado por terceiros, com exceção da hipótese na qual sejam notificadas da existência desse conteúdo e não o excluam (a depender do caso, a notificação pode ser extrajudicial ou judicial). Ou seja, não há obrigação de atuar para prevenir a publicação de conteúdo ilícito, bastando o papel passivo de reagir em caso de notificação. Essa visão influenciou o Marco Civil da Internet A responsabilidade do provedor no Marco Civil da Internet(Lei nº 12.965/2014), lei brasileira que regula o ambiente digital.

Segundo o raciocínio que embasou essas legislações, as administradoras de redes sociais são meras intermediárias passivas, pois prestam serviços que possibilitam que usuários publiquem textos, sons, imagens ou vídeos direcionados a um grupo seleto de contatos ou ao público em geral, de modo que não poderiam ser responsabilizadas por danos causados por essas publicações. Caso contrário, haveria um risco à liberdade de expressão, pois as empresas acabariam excluindo um número grande de publicações para evitar problemas.

Com o advento das redes sociais, como Orkut, Facebook, Instagram e Twitter, essa isenção de responsabilidade continuou vigente na maior parte dos países. No entanto, várias pesquisas passaram a demonstrar a influência da arquitetura das redes sociais para a disseminação de conteúdo nocivo à sociedade, como discurso de ódio e negacionismo. Com isso, caiu por terra o discurso de que as redes sociais configuram plataformas neutras nas quais não há qualquer interferência das empresas que as administram quanto às publicações às quais os usuários têm acesso.

Diversos casos demonstraram na prática que as redes sociais se tornaram uma ameaça à democracia. Apesar de haver situações ao redor de todo o mundo, obviamente foram acontecimentos que atingiram os países desenvolvidos que geraram maior comoção, como o Brexit no Reino Unido, a eleição de Donald Trump e a invasão do Capitólio nos EUA, bem como o negacionismo em relação à pandemia de covid-19. Esses fatos demonstraram que discursos que se disseminam nas redes sociais, com auxílio da arquitetura dessas plataformas, criam ameaças gravíssimas no mundo real. Esse cenário estimulou discussões que visam a alterar o modelo de regulamentação das redes sociais.

A regulação das redes sociais na Europa

Em dezembro de 2020, a Comissão Europeia publicou uma proposta de Regulamento de Serviços Digitais, que não extingue a regra de isenção de responsabilidade dos provedores por conteúdo publicado por terceiros, mas acrescenta diversas normas de devida diligência (due diligence) que devem ser seguidas pelos provedores, sob pena de aplicação de multa de até 6% do seu faturamento mundial, além de outras sanções.

Dentre as diversas novidades trazidas pelo Regulamento, podem ser destacadas as seguintes: (1) as empresas que prestem serviços mas não tenham sede na União Europeia devem designar uma pessoa física ou jurídica para ser sua representante legal; (2) as plataformas devem tornar mais transparentes suas políticas e seus procedimentos para a moderação de conteúdo, explicando inclusive em quais casos haverá análise por humanos ou por sistemas computacionais; (3) as empresas devem apresentar, pelo menos uma vez por ano, relatórios claros e facilmente compreensíveis sobre as atividades de moderação de conteúdo; (4) devem ser criados mecanismos simples e claros por meio dos quais os usuários podem sinalizar publicações que consideram ilícitas; (5) em caso de remoção de conteúdo, as empresas devem expor claramente os motivos dessa decisão.

Além disso, o Regulamento cria algumas regras direcionadas especificamente a plataformas de grande dimensão. Trata-se de uma solução correta, já que as grandes plataformas devem receber tratamento diferenciado em função do elevado risco que representam. Dentre essas regras, cabe destacar as seguintes: (1) as plataformas devem realizar, pelo menos uma vez por ano, uma análise de riscos sistêmicos significativos decorrentes do uso de seus serviços, devendo atuar para atenuar esses riscos; (2) essas plataformas devem passar por auditoria independente que avalie o cumprimento de suas obrigações; (3) as plataformas que utilizam os chamados “sistemas de recomendação”, ou seja, algoritmos que determinam o que os usuários veem de acordo com o perfil de cada um, devem fornecer nos termos de uso informações claras sobre os parâmetros utilizados para formar esses perfis, bem como possibilitar aos usuários que alterem ou influenciem esses parâmetros; (4) em situações de crise, como guerra ou pandemia, essas plataformas poderão participar das discussões envolvendo a criação de medidas emergenciais mais rigorosas para combater a publicação de conteúdo nocivo.

O Regulamento em questão foi objeto de acordo entre Conselho e Parlamento Europeu no dia 23 de abril. Apesar de ainda precisar passar por diversos trâmites até entrar em vigor (a previsão é que isso ocorra em 2024), pode-se dizer que esse acordo representa um novo passo em um processo de transição das normas de regulamentação das redes sociais. Ou seja, está sendo superada aquela visão de que as plataformas são meras intermediárias neutras que devem ocupar um papel meramente passivo na moderação de conteúdo; em seu lugar, há uma tendência de que sejam atribuídas novas obrigações para que essas plataformas sejam mais ativas no combate à disseminação de conteúdo ilícito e que aumentem o nível de transparência de seus mecanismos de recomendação e de moderação.

 

Publicado no Nexo Jornal.

O que procura?

1
Olá 👋 Olá, tudo bem?