A regulamentação dos sistemas de recomendação de conteúdo

Frullani Lopes Marcelo Frullani 26 de abril de 2023

Artigo escrito por Marcelo Frullani Lopes.

 

A Suprema Corte dos Estados Unidos decidirá, em breve, se uma plataforma digital que permite aos seus usuários publicarem vídeos próprios deve ser responsabilizada por danos causados por pessoas que se radicalizaram em função desses vídeos. A ação judicial em questão, chamada Gonzalez vs. Google, foi proposta pelos pais de uma garota norte-americana morta por membros do Estado Islâmico no ano de 2015, em Paris. Segundo os autores do processo, o sistema de recomendação de vídeos do YouTube teria contribuído para o recrutamento e a radicalização dos terroristas responsáveis pelo atentado.

Durante muitos anos, disseminou-se a ideia de que as empresas responsáveis pelas plataformas digitais forneceriam apenas o suporte tecnológico que facilitaria a comunicação, mas não interfeririam diretamente sobre o conteúdo trocado. Ou seja, seriam meros intermediários “neutros”. Esse argumento da neutralidade foi fundamental para a aprovação nos Estados Unidos, em 1996, de uma regra (Seção 230 da Lei de Decência em Comunicações) que impede a responsabilização dos “provedores de serviços de computador interativos” por conteúdo ilícito publicado por usuários.

A lei atribui a essas empresas uma isenção que não se aplica a outros meios de comunicação. Um jornal ou uma emissora de televisão podem ser responsabilizados caso publiquem uma reportagem ou um texto de opinião que ofenda a honra ou a privacidade de algum cidadão, pois será considerada “editora” do conteúdo. Já no caso de plataformas que permitem aos seus usuários publicarem conteúdo, aplica-se, em regra, o entendimento de que não há controle editorial, mas mera hospedagem e transmissão de informações.

Essa visão de neutralidade vem sendo colocada em xeque nos últimos anos, já que a internet, em seus moldes atuais, é radicalmente diferente daquela existente em meados dos anos 1990, quando os usuários ainda se limitavam a produzir conteúdo, basicamente, em “quadros de avisos” e em “chats”. Naquele contexto, fazia sentido conferir ampla proteção aos administradores de websites que não interferiam no conteúdo publicado pelos usuários.

Porém, aplicativos como o Facebook, o Instagram, o Twitter, o YouTube e, mais recentemente, o TikTok, não podem ser equiparados a esses websites. Além de serem gigantes e de terem influência global, essas empresas coletam uma quantidade enorme de dados que, dentre outras finalidades, são usados para criar perfis comportamentais, conforme os interesses de cada pessoa. Não existe um feed que seja exatamente igual a outro devido a essa personalização.

Através desses sistemas de recomendação de conteúdo, as empresas buscam manter os usuários o maior tempo possível dentro das plataformas, já que obtêm boa parte de suas receitas através de publicidade direcionada. Há estudos que indicam que algumas dessas plataformas, em especial o YouTube, contribuem para a radicalização política dos usuários.

O caso a ser julgado pela Suprema Corte dos EUA se insere nesse cenário em que vem perdendo força a ideia de “neutralidade” das plataformas digitais. Porém, responsabilizar o YouTube por danos causados por um atentado terrorista não seria o melhor caminho, pois de fato haveria o risco de um estímulo a uma moderação de conteúdo extremamente rígida, o que acabaria prejudicando a liberdade de expressão e de informação dos cidadãos. Para evitarem responsabilização, as plataformas acabariam excluindo um número muito maior de publicações, inclusive lícitas. Não parece viável, além disso, simplesmente proibir as empresas de utilizarem sistemas de recomendação de conteúdo.

Um caminho mais promissor foi seguido pela União Europeia, cujo Parlamento aprovou, em 2022, mudanças radicais na regulamentação das plataformas digitais. Apesar de o Regulamento de Serviços Digitais manter a isenção de responsabilidade dos provedores por conteúdos específicos publicados por usuários, cria várias obrigações para que essas empresas aprimorem suas tecnologias e reduzam os riscos causados por elas, sob pena de aplicação de multa e outras sanções.

Em relação ao tema discutido neste artigo, o Regulamento estabelece que as empresas devem tornar transparentes os parâmetros utilizados nos seus sistemas de recomendação, fornecendo aos usuários a opção de alterar ou influenciar esses parâmetros. Com isso, os usuários terão informações mais robustas acerca dos elementos levados em consideração para que a plataforma recomende determinado tipo de conteúdo, podendo até mesmo exercer influência no peso de cada um desses elementos.

Quanto a plataformas ou provedores de pesquisa de grande dimensão, isto é, aquelas cujo número médio mensal de usuários seja igual ou superior a 45 milhões, como é o caso do YouTube, há uma regra específica segundo a qual deve-se oferecer aos usuários a possibilidade de que vedem a utilização de seus perfis comportamentais baseados em seus dados pessoais pelos sistemas de recomendação.

Além disso, o Regulamento estabelece, dentre outras obrigações, a necessidade de as plataformas ou provedores de pesquisa de grande dimensão avaliarem periodicamente se seus sistemas de recomendação apresentam riscos para a difusão de conteúdo ilegal ou prejudicial a direitos humanos, à democracia, à segurança ou à saúde pública, por exemplo. Caso sejam constatados esses riscos, as empresas serão obrigadas a adotar medidas para atenuá-los.

O Regulamento ainda estabelece que os estados-membros e a Comissão Europeia poderão exigir das empresas explicações referentes à concepção, lógica, funcionamento e testagem de seus sistemas de recomendação. Isso aumentará o escrutínio público sobre essas tecnologias que, apesar de desenvolvidas por empresas privadas, são capazes de produzir efeitos negativos sobre toda a sociedade.

No Brasil, o Senado aprovou, em meados de 2020, o Projeto de Lei nº 2.630, que recebeu o apelido de “Lei das Fake News”. Desde então, o relator na Câmara dos Deputados, Orlando Silva (PCdoB-SP), apresentou sugestões de alteração, mas ainda não houve novos andamentos. Dentre os defeitos encontrados no texto em discussão, chama atenção a ausência de um tratamento sistematizado e abrangente a respeito dos sistemas de recomendação de conteúdo. Nesse aspecto, o texto fica em completa desvantagem quando comparado à legislação europeia.

Em um momento no qual as instituições democráticas encontram-se sob ataque de grupos que se formam e disseminam conteúdo extremista por meio das plataformas digitais, a regulamentação dos sistemas de recomendação empregados por elas é fundamental para que sejam adotadas medidas capazes de solucionar ou, ao menos atenuar, os riscos gerados por essas tecnologias. O Brasil não deve copiar as regras aprovadas pela União Europeia, mas se inspirar nelas para aprimorar o Projeto de Lei nº 2.630.

 

Artigo publicado no Nexo Jornal.

O que procura?

1
Olá 👋 Olá, tudo bem?