<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Artigos &#8211; Frullani Lopes</title>
	<atom:link href="https://frullanilopes.adv.br/artigos/feed/" rel="self" type="application/rss+xml" />
	<link>https://frullanilopes.adv.br</link>
	<description>Advogados</description>
	<lastBuildDate>Wed, 26 Apr 2023 17:44:34 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.2</generator>
	<item>
		<title>A regulamentação dos sistemas de recomendação de conteúdo</title>
		<link>https://frullanilopes.adv.br/a-regulamentacao-dos-sistemas-de-recomendacao-de-conteudo/</link>
					<comments>https://frullanilopes.adv.br/a-regulamentacao-dos-sistemas-de-recomendacao-de-conteudo/#respond</comments>
		
		<dc:creator><![CDATA[Frullani Lopes]]></dc:creator>
		<pubDate>Wed, 26 Apr 2023 17:44:34 +0000</pubDate>
				<category><![CDATA[Artigos]]></category>
		<category><![CDATA[digital]]></category>
		<category><![CDATA[marcocivil]]></category>
		<guid isPermaLink="false">https://frullanilopes.adv.br/?p=779</guid>

					<description><![CDATA[Artigo escrito por Marcelo Frullani Lopes. &#160; A Suprema Corte dos Estados Unidos decidirá, em breve, se uma plataforma digital que permite aos seus usuários publicarem vídeos próprios deve ser responsabilizada por danos causados por pessoas que se radicalizaram em função desses vídeos. A ação judicial em questão, chamada Gonzalez vs. Google, foi proposta pelos [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Artigo escrito por Marcelo Frullani Lopes.</p>
<p>&nbsp;</p>
<p>A Suprema Corte dos Estados Unidos decidirá, em breve, se uma plataforma digital que permite aos seus usuários publicarem vídeos próprios deve ser responsabilizada por danos causados por pessoas que se radicalizaram em função desses vídeos. A ação judicial em questão, chamada Gonzalez vs. Google, foi proposta pelos pais de uma garota norte-americana morta por membros do Estado Islâmico no ano de 2015, em Paris. Segundo os autores do processo, o sistema de recomendação de vídeos do YouTube teria contribuído para o recrutamento e a radicalização dos terroristas responsáveis pelo atentado.</p>
<p>Durante muitos anos, disseminou-se a ideia de que as empresas responsáveis pelas plataformas digitais forneceriam apenas o suporte tecnológico que facilitaria a comunicação, mas não interfeririam diretamente sobre o conteúdo trocado. Ou seja, seriam meros intermediários “neutros”. Esse argumento da neutralidade foi fundamental para a aprovação nos Estados Unidos, em 1996, de uma regra (Seção 230 da Lei de Decência em Comunicações) que impede a responsabilização dos “provedores de serviços de computador interativos” por conteúdo ilícito publicado por usuários.</p>
<p>A lei atribui a essas empresas uma isenção que não se aplica a outros meios de comunicação. Um jornal ou uma emissora de televisão podem ser responsabilizados caso publiquem uma reportagem ou um texto de opinião que ofenda a honra ou a privacidade de algum cidadão, pois será considerada “editora” do conteúdo. Já no caso de plataformas que permitem aos seus usuários publicarem conteúdo, aplica-se, em regra, o entendimento de que não há controle editorial, mas mera hospedagem e transmissão de informações.</p>
<p>Essa visão de neutralidade vem sendo colocada em xeque nos últimos anos, já que a internet, em seus moldes atuais, é radicalmente diferente daquela existente em meados dos anos 1990, quando os usuários ainda se limitavam a produzir conteúdo, basicamente, em “quadros de avisos” e em “chats”. Naquele contexto, fazia sentido conferir ampla proteção aos administradores de websites que não interferiam no conteúdo publicado pelos usuários.</p>
<p>Porém, aplicativos como o Facebook, o Instagram, o Twitter, o YouTube e, mais recentemente, o TikTok, não podem ser equiparados a esses websites. Além de serem gigantes e de terem influência global, essas empresas coletam uma quantidade enorme de dados que, dentre outras finalidades, são usados para criar perfis comportamentais, conforme os interesses de cada pessoa. Não existe um feed que seja exatamente igual a outro devido a essa personalização.</p>
<p>Através desses sistemas de recomendação de conteúdo, as empresas buscam manter os usuários o maior tempo possível dentro das plataformas, já que obtêm boa parte de suas receitas através de publicidade direcionada. Há estudos que indicam que algumas dessas plataformas, em especial o YouTube, contribuem para a radicalização política dos usuários.</p>
<p>O caso a ser julgado pela Suprema Corte dos EUA se insere nesse cenário em que vem perdendo força a ideia de “neutralidade” das plataformas digitais. Porém, responsabilizar o YouTube por danos causados por um atentado terrorista não seria o melhor caminho, pois de fato haveria o risco de um estímulo a uma moderação de conteúdo extremamente rígida, o que acabaria prejudicando a liberdade de expressão e de informação dos cidadãos. Para evitarem responsabilização, as plataformas acabariam excluindo um número muito maior de publicações, inclusive lícitas. Não parece viável, além disso, simplesmente proibir as empresas de utilizarem sistemas de recomendação de conteúdo.</p>
<p>Um caminho mais promissor foi seguido pela União Europeia, cujo Parlamento aprovou, em 2022, mudanças radicais na regulamentação das plataformas digitais. Apesar de o Regulamento de Serviços Digitais manter a isenção de responsabilidade dos provedores por conteúdos específicos publicados por usuários, cria várias obrigações para que essas empresas aprimorem suas tecnologias e reduzam os riscos causados por elas, sob pena de aplicação de multa e outras sanções.</p>
<p>Em relação ao tema discutido neste artigo, o Regulamento estabelece que as empresas devem tornar transparentes os parâmetros utilizados nos seus sistemas de recomendação, fornecendo aos usuários a opção de alterar ou influenciar esses parâmetros. Com isso, os usuários terão informações mais robustas acerca dos elementos levados em consideração para que a plataforma recomende determinado tipo de conteúdo, podendo até mesmo exercer influência no peso de cada um desses elementos.</p>
<p>Quanto a plataformas ou provedores de pesquisa de grande dimensão, isto é, aquelas cujo número médio mensal de usuários seja igual ou superior a 45 milhões, como é o caso do YouTube, há uma regra específica segundo a qual deve-se oferecer aos usuários a possibilidade de que vedem a utilização de seus perfis comportamentais baseados em seus dados pessoais pelos sistemas de recomendação.</p>
<p>Além disso, o Regulamento estabelece, dentre outras obrigações, a necessidade de as plataformas ou provedores de pesquisa de grande dimensão avaliarem periodicamente se seus sistemas de recomendação apresentam riscos para a difusão de conteúdo ilegal ou prejudicial a direitos humanos, à democracia, à segurança ou à saúde pública, por exemplo. Caso sejam constatados esses riscos, as empresas serão obrigadas a adotar medidas para atenuá-los.</p>
<p>O Regulamento ainda estabelece que os estados-membros e a Comissão Europeia poderão exigir das empresas explicações referentes à concepção, lógica, funcionamento e testagem de seus sistemas de recomendação. Isso aumentará o escrutínio público sobre essas tecnologias que, apesar de desenvolvidas por empresas privadas, são capazes de produzir efeitos negativos sobre toda a sociedade.</p>
<p>No Brasil, o Senado aprovou, em meados de 2020, o Projeto de Lei nº 2.630, que recebeu o apelido de “Lei das Fake News”. Desde então, o relator na Câmara dos Deputados, Orlando Silva (PCdoB-SP), apresentou sugestões de alteração, mas ainda não houve novos andamentos. Dentre os defeitos encontrados no texto em discussão, chama atenção a ausência de um tratamento sistematizado e abrangente a respeito dos sistemas de recomendação de conteúdo. Nesse aspecto, o texto fica em completa desvantagem quando comparado à legislação europeia.</p>
<p>Em um momento no qual as instituições democráticas encontram-se sob ataque de grupos que se formam e disseminam conteúdo extremista por meio das plataformas digitais, a regulamentação dos sistemas de recomendação empregados por elas é fundamental para que sejam adotadas medidas capazes de solucionar ou, ao menos atenuar, os riscos gerados por essas tecnologias. O Brasil não deve copiar as regras aprovadas pela União Europeia, mas se inspirar nelas para aprimorar o Projeto de Lei nº 2.630.</p>
<p>&nbsp;</p>
<p>Artigo publicado no <a href="https://www.nexojornal.com.br/ensaio/2023/04/01/A-regulamenta%C3%A7%C3%A3o-dos-sistemas-de-recomenda%C3%A7%C3%A3o-de-conte%C3%BAdo?fbclid=IwAR0Xvkw0EKKYX8RbcjL5NHd447FHG5A4T-FKnbZCEZECRHNUoOcUacRKh7E" rel="nofollow noopener" target="_blank">Nexo Jornal</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://frullanilopes.adv.br/a-regulamentacao-dos-sistemas-de-recomendacao-de-conteudo/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>A nova fase de regulação das redes sociais</title>
		<link>https://frullanilopes.adv.br/a-nova-fase-de-regulacao-das-redes-sociais/</link>
					<comments>https://frullanilopes.adv.br/a-nova-fase-de-regulacao-das-redes-sociais/#respond</comments>
		
		<dc:creator><![CDATA[Frullani Lopes]]></dc:creator>
		<pubDate>Thu, 28 Jul 2022 00:23:45 +0000</pubDate>
				<category><![CDATA[Artigos]]></category>
		<category><![CDATA[digital]]></category>
		<category><![CDATA[facebook]]></category>
		<category><![CDATA[google]]></category>
		<category><![CDATA[instagram]]></category>
		<category><![CDATA[marcocivil]]></category>
		<guid isPermaLink="false">https://frullanilopes.adv.br/?p=453</guid>

					<description><![CDATA[No dia 25 de abril, foi anunciada a compra do Twitter pelo bilionário Elon Musk. O fato causou grande alvoroço, já que o empresário nascido na África do Sul é um notório defensor da liberdade de expressão quase irrestrita nas redes sociais. Um acontecimento que gerou muito menos repercussão, mas que representa um grande passo [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>No dia 25 de abril, foi anunciada a compra do Twitter pelo bilionário Elon Musk. O fato causou grande alvoroço, já que o empresário nascido na África do Sul é um notório defensor da<a href="https://frullanilopes.adv.br/marco-civil-aumenta-inseguranca-sobre-liberdade-de-expressao/"> liberdade de expressão</a> quase irrestrita nas redes sociais. Um acontecimento que gerou muito menos repercussão, mas que representa um grande passo em um processo de transição do cenário de regulação das redes sociais, foi o acordo entre Conselho e Parlamento Europeu, dois órgãos que compõem a União Europeia, quanto a uma proposta que atribui novas obrigações às empresas que administram as redes sociais.</p>
<p>No início dos anos 1990, quando a internet se disseminava pelo mundo, muitas pessoas defendiam que não seria desejável que o poder estatal se imiscuísse no ambiente digital, pois este deveria ser um local em que prevaleceria a liberdade individual. No entanto, essa visão utópica nunca se concretizou completamente, de modo que a internet passou a sofrer regulamentação governamental entre o final do século 20 e o início do 21.</p>
<p>Dentre as várias questões relevantes que foram objeto de regulamentação, destaco duas que são o foco deste artigo: (1) As empresas prestadoras de serviços na internet que permitem que usuários publiquem conteúdo próprio devem ser responsabilizadas caso esse conteúdo seja ilícito?; (2) Essas empresas devem atuar para prevenir a disseminação desse tipo de conteúdo?</p>
<p>De modo geral, prevaleceu nos países ocidentais o entendimento de que, como regra, as empresas não devem ser responsabilizadas por conteúdo ilícito publicado por terceiros, com exceção da hipótese na qual sejam notificadas da existência desse conteúdo e não o excluam (a depender do caso, a notificação pode ser extrajudicial ou judicial). Ou seja, não há obrigação de atuar para prevenir a publicação de conteúdo ilícito, bastando o papel passivo de reagir em caso de notificação. Essa visão influenciou o Marco Civil da Internet <a href="https://frullanilopes.adv.br/a-responsabilidade-do-provedor-no-marco-civil-da-internet/">A responsabilidade do provedor no Marco Civil da Internet</a>(Lei nº 12.965/2014), lei brasileira que regula o ambiente digital.</p>
<p>Segundo o raciocínio que embasou essas legislações, as administradoras de redes sociais são meras intermediárias passivas, pois prestam serviços que possibilitam que usuários publiquem textos, sons, imagens ou vídeos direcionados a um grupo seleto de contatos ou ao público em geral, de modo que não poderiam ser responsabilizadas por danos causados por essas publicações. Caso contrário, haveria um risco à liberdade de expressão, pois as empresas acabariam excluindo um número grande de publicações para evitar problemas.</p>
<p>Com o advento das redes sociais, como Orkut, Facebook, Instagram e Twitter, essa isenção de responsabilidade continuou vigente na maior parte dos países. No entanto, várias pesquisas passaram a demonstrar a influência da arquitetura das redes sociais para a disseminação de conteúdo nocivo à sociedade, como discurso de ódio e negacionismo. Com isso, caiu por terra o discurso de que as redes sociais configuram plataformas neutras nas quais não há qualquer interferência das empresas que as administram quanto às publicações às quais os usuários têm acesso.</p>
<p>Diversos casos demonstraram na prática que as redes sociais se tornaram uma ameaça à democracia. Apesar de haver situações ao redor de todo o mundo, obviamente foram acontecimentos que atingiram os países desenvolvidos que geraram maior comoção, como o Brexit no Reino Unido, a eleição de Donald Trump e a invasão do Capitólio nos EUA, bem como o negacionismo em relação à pandemia de covid-19. Esses fatos demonstraram que discursos que se disseminam nas redes sociais, com auxílio da arquitetura dessas plataformas, criam ameaças gravíssimas no mundo real. Esse cenário estimulou discussões que visam a alterar o modelo de regulamentação das redes sociais.</p>
<h2><span>A regulação das redes sociais na Europa </span></h2>
<p>Em dezembro de 2020, a Comissão Europeia publicou uma proposta de Regulamento de Serviços Digitais, que não extingue a regra de isenção de responsabilidade dos provedores por conteúdo publicado por terceiros, mas acrescenta diversas normas de devida diligência (due diligence) que devem ser seguidas pelos provedores, sob pena de aplicação de multa de até 6% do seu faturamento mundial, além de outras sanções.</p>
<p>Dentre as diversas novidades trazidas pelo Regulamento, podem ser destacadas as seguintes: (1) as empresas que prestem serviços mas não tenham sede na União Europeia devem designar uma pessoa física ou jurídica para ser sua representante legal; (2) as plataformas devem tornar mais transparentes suas políticas e seus procedimentos para a moderação de conteúdo, explicando inclusive em quais casos haverá análise por humanos ou por sistemas computacionais; (3) as empresas devem apresentar, pelo menos uma vez por ano, relatórios claros e facilmente compreensíveis sobre as atividades de moderação de conteúdo; (4) devem ser criados mecanismos simples e claros por meio dos quais os usuários podem sinalizar publicações que consideram ilícitas; (5) em caso de remoção de conteúdo, as empresas devem expor claramente os motivos dessa decisão.</p>
<p>Além disso, o Regulamento cria algumas regras direcionadas especificamente a plataformas de grande dimensão. Trata-se de uma solução correta, já que as grandes plataformas devem receber tratamento diferenciado em função do elevado risco que representam. Dentre essas regras, cabe destacar as seguintes: (1) as plataformas devem realizar, pelo menos uma vez por ano, uma análise de riscos sistêmicos significativos decorrentes do uso de seus serviços, devendo atuar para atenuar esses riscos; (2) essas plataformas devem passar por auditoria independente que avalie o cumprimento de suas obrigações; (3) as plataformas que utilizam os chamados “sistemas de recomendação”, ou seja, algoritmos que determinam o que os usuários veem de acordo com o perfil de cada um, devem fornecer nos termos de uso informações claras sobre os parâmetros utilizados para formar esses perfis, bem como possibilitar aos usuários que alterem ou influenciem esses parâmetros; (4) em situações de crise, como guerra ou pandemia, essas plataformas poderão participar das discussões envolvendo a criação de medidas emergenciais mais rigorosas para combater a publicação de conteúdo nocivo.</p>
<p>O Regulamento em questão foi objeto de acordo entre Conselho e Parlamento Europeu no dia 23 de abril. Apesar de ainda precisar passar por diversos trâmites até entrar em vigor (a previsão é que isso ocorra em 2024), pode-se dizer que esse acordo representa um novo passo em um processo de transição das normas de regulamentação das redes sociais. Ou seja, está sendo superada aquela visão de que as plataformas são meras intermediárias neutras que devem ocupar um papel meramente passivo na moderação de conteúdo; em seu lugar, há uma tendência de que sejam atribuídas novas obrigações para que essas plataformas sejam mais ativas no combate à disseminação de conteúdo ilícito e que aumentem o nível de transparência de seus mecanismos de recomendação e de moderação.</p>
<p>&nbsp;</p>
<p>Publicado no <a href="https://www.nexojornal.com.br/ensaio/2022/A-nova-fase-de-regula%C3%A7%C3%A3o-das-redes-sociais" rel="nofollow noopener" target="_blank">Nexo Jornal</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://frullanilopes.adv.br/a-nova-fase-de-regulacao-das-redes-sociais/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Reexibição de ‘Pantanal’ levou a julgamento histórico do STJ</title>
		<link>https://frullanilopes.adv.br/reexibicao-de-pantanal-levou-a-julgamento-historico-do-stj/</link>
					<comments>https://frullanilopes.adv.br/reexibicao-de-pantanal-levou-a-julgamento-historico-do-stj/#respond</comments>
		
		<dc:creator><![CDATA[Frullani Lopes]]></dc:creator>
		<pubDate>Thu, 28 Jul 2022 00:23:05 +0000</pubDate>
				<category><![CDATA[Artigos]]></category>
		<category><![CDATA[direitoautoral]]></category>
		<category><![CDATA[propriedadeintelectual]]></category>
		<guid isPermaLink="false">https://frullanilopes.adv.br/?p=451</guid>

					<description><![CDATA[No final de março deste ano, a TV Globo lançou uma nova versão da novela “Pantanal”, baseada no texto de Benedito Ruy Barbosa, com adaptação realizada por seu neto Bruno Luperi. Trata-se de momento oportuno para relembrar um caso paradigmático julgado pelo Superior Tribunal de Justiça (STJ), que deve ser observado por todos os profissionais [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>No final de março deste ano, a TV Globo lançou uma nova versão da novela “Pantanal”, baseada no texto de Benedito Ruy Barbosa, com adaptação realizada por seu neto Bruno Luperi. Trata-se de momento oportuno para relembrar um caso paradigmático julgado pelo Superior Tribunal de Justiça (<a href="https://www.jota.info/tudo-sobre/stj" rel="nofollow noopener" target="_blank">STJ</a>), que deve ser observado por todos os profissionais que trabalham com obras protegidas por direitos autorais.</p>
<p>A primeira versão da novela foi produzida pela extinta TV Manchete no início da década de 1990. Benedito assinou um contrato de cessão (juridicamente seria mais adequado denominá-lo licença, já que não se trata de transferência definitiva) dos direitos autorais sobre os textos literários pelo período de dez anos. Em 1995, o escritor assinou um contrato por meio do qual renunciava expressamente, em caráter irrevogável e irretratável, ao direito de receber quaisquer valores oriundos de reexibições, utilizações ou negociações dos direitos de exibição da novela produzida pela emissora com terceiros.</p>
<p>Com a extinção da TV Manchete, o SBT adquiriu não apenas as fitas que continham os capítulos da obra (suporte físico), mas também os direitos autorais de exibição. Assim sendo, a emissora decidiu reexibir a novela em 2008, sem pedir autorização prévia de Benedito.</p>
<p>Inconformado com esse fato, o escritor ingressou com ação judicial em face da emissora de Silvio Santos para pleitear indenização por danos materiais e morais. Em relação aos primeiros, Benedito alegou que os negócios jurídicos envolvendo direitos autorais devem ser interpretados de forma restritiva, de modo que eventual reexibição da novela dependeria de autorização prévia dele; já em relação aos segundos, o escritor alegou que a novela foi exibida com uma série de cortes de cenas e supressão de diálogos, o que violaria sua honra e sua reputação.</p>
<h2>Como a lei de direitos autorais ajudou no caso.</h2>
<p>Antes de tratar do resultado da ação judicial, cabe destacar que a distinção entre direitos patrimoniais e direitos morais de autor foi essencial para o julgamento do caso. Nossa<span> </span><a href="https://www.jota.info/tudo-sobre/lei-de-direito-autoral" rel="nofollow noopener" target="_blank">Lei de Direitos Autorais</a><span> </span>prevê duas espécies de direitos: (i) de um lado, os patrimoniais, que incluem, por exemplo, o direito de autorizar a reprodução, a edição, a adaptação, a tradução, a distribuição e a exibição da obra, entre outros; (ii) de outro lado, os morais, que incluem, por exemplo, o direito de reivindicar a autoria da obra a qualquer tempo, de ter seu nome indicado como autor, de assegurar a integridade da obra.</p>
<p>Enquanto os direitos patrimoniais podem ser livremente cedidos ou licenciados, seja a título gratuito ou oneroso, a lei impede a transferência dos direitos morais. Ou seja, ainda que um autor queira, ele não pode renunciar ao direito de assegurar a integridade de sua obra, opondo-se a modificações que podem descaracterizá-la, por exemplo.</p>
<p>Após decisões conflitantes em primeira e segunda instâncias, a maioria da 3ª Turma do STJ entendeu, no julgamento do<span> </span><a href="https://images.jota.info/wp-content/uploads/2022/04/resp-1558683-2016-10-10.pdf" rel="nofollow noopener" target="_blank">Recurso Especial nº 1.558.683/SP</a>, que não havia dano material a ser indenizado, já que o escritor renunciara expressamente, em 1995, ao direito de receber valores oriundos de explorações econômicas posteriores da obra, incluindo a transferência dos direitos autorais sobre a obra audiovisual para terceiros.</p>
<p>Contudo, diversa foi a decisão em relação ao pedido de indenização por danos morais. A maioria dos ministros da 3ª Turma do STJ entendeu que, por ser participante de obra coletiva (novela), o escritor tem seus direitos garantidos pela Constituição Federal, cujo artigo 5º, inciso XXVIII, assegura a proteção das participações individuais em obras coletivas. A mesma proteção está expressa no artigo 17 da Lei de Direitos Autorais (<a href="http://www.planalto.gov.br/ccivil_03/leis/l9610.htm" rel="nofollow noopener" target="_blank">Lei 9.610/1998</a>).</p>
<p>Por isso, entendeu-se que os cortes em cenas e a supressão de diálogos violaram o direito moral de autor de assegurar a integridade de sua obra, opondo-se a modificações ou à prática de atos que possam prejudicá-lo, como autor, em sua reputação ou honra.</p>
<p>O SBT, porém, levantou uma questão importante: as fitas adquiridas já continham esses cortes e supressões, de modo que a emissora não poderia ser responsabilizada por eles, segundo seu raciocínio.</p>
<p>De fato, a prova pericial realizada ao longo do processo confirmou essa alegação. No entanto, mesmo esse fato não alterou a conclusão do STJ. Apesar de esses cortes serem preexistentes, o SBT deveria ser responsabilizado pela reexibição da novela, pois decidiu apresentá-la nessas circunstâncias.</p>
<p>O julgamento do STJ nesse caso envolvendo Benedito Ruy Barbosa e SBT deve ser observado por todos aqueles que trabalham com obras protegidas por direitos autorais, já que a aquisição de direitos patrimoniais de autor não atribui liberdade total ao adquirente, que deve sempre respeitar os limites estabelecidos pelos direitos morais de autor.</p>
<p>&nbsp;</p>
<p>Publicado no <a href="https://www.jota.info/opiniao-e-analise/artigos/reexibicao-de-pantanal-levou-a-julgamento-historico-do-stj-21042022" rel="nofollow noopener" target="_blank">Jota</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://frullanilopes.adv.br/reexibicao-de-pantanal-levou-a-julgamento-historico-do-stj/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>A superação do revenge porn</title>
		<link>https://frullanilopes.adv.br/a-superacao-do-revenge-porn/</link>
					<comments>https://frullanilopes.adv.br/a-superacao-do-revenge-porn/#respond</comments>
		
		<dc:creator><![CDATA[Frullani Lopes]]></dc:creator>
		<pubDate>Thu, 28 Jul 2022 00:21:11 +0000</pubDate>
				<category><![CDATA[Artigos]]></category>
		<category><![CDATA[digital]]></category>
		<category><![CDATA[marco civil]]></category>
		<category><![CDATA[revengeporn]]></category>
		<guid isPermaLink="false">https://frullanilopes.adv.br/?p=447</guid>

					<description><![CDATA[A 3ª Turma do STJ está prestes a decidir um caso de enorme importância, em que se discute a responsabilidade de um provedor de aplicações em função da divulgação de imagens de nudez por terceiros. Trata-se do Recurso Especial nº 1.930.256/SP, cujo julgamento foi interrompido depois de um pedido de vista do ministro Paulo de [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>A 3ª Turma do STJ está prestes a decidir um caso de enorme importância, em que se discute a responsabilidade de um provedor de aplicações em função da <a href="https://frullanilopes.adv.br/a-responsabilidade-do-google-por-revenge-porn/">divulgação de imagens de nudez por terceiros</a>. Trata-se do Recurso Especial nº 1.930.256/SP, cujo julgamento foi interrompido depois de um pedido de vista do ministro Paulo de Tarso Sanseverino, que proferirá o voto de desempate.</p>
<p>Não se trata de um caso de “pornografia da vingança” (revenge porn), pois a pessoa retratada nas imagens é uma modelo que consentiu com a divulgação das fotos em revista impressa e virtual (com acesso restrito a assinantes). No entanto, essas imagens foram indevidamente copiadas e publicadas em diversos blogs de acesso público. Por isso, como bem destaca a ministra relatora Nancy Andrighi em seu voto, trata-se de “pornografia não consentida”, um conceito mais amplo do que aquele mencionado no início deste parágrafo.</p>
<p>Antes de discutir o mérito, cabe destacar que o provedor em questão é um serviço de hospedagem de blogs mantido pelo Google. Sendo assim, essa empresa figura como provedora de aplicações que permite a publicação de conteúdo por parte dos usuários. Nesse caso, não se discute a responsabilidade do Google como provedor de busca, mas como provedor da aplicação de hospedagem de blogs.</p>
<p>A modelo em questão indicou especificamente as URLs que remetiam a esse conteúdo divulgado ilicitamente por terceiros em formulário disponibilizado pelo Google. Contudo, como a empresa não excluiu o conteúdo imediatamente, a modelo decidiu ingressar com ação judicial para requerer a exclusão, além da condenação da provedora a pagar indenização por danos morais.</p>
<h2>A controvérsia sobre o caso de revenge porn</h2>
<p>A controvérsia principal do caso refere-se ao regime de responsabilidade do provedor de aplicações nesse caso. O Marco Civil da Internet (<a href="http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm" rel="nofollow noopener" target="_blank">Lei nº 12.965/2014</a>) prevê dois regimes: (i) o principal, previsto no artigo 19, segundo o qual a responsabilidade do provedor de aplicações por conteúdo ilícito publicado por terceiro surge apenas se a empresa deixar de cumprir ordem judicial que determine a exclusão do conteúdo; (ii) o excepcional, previsto no artigo 21, o qual estabelece que basta ao ofendido notificar extrajudicialmente o provedor para que surja a obrigação de excluir o conteúdo, sob pena de responsabilização civil.</p>
<p>O regime excepcional previsto no artigo 21 aplica-se apenas a algumas situações específicas, nas quais ocorre a divulgação, sem autorização dos participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou atos sexuais de caráter privado. Devido ao elevado risco de danos irreparáveis ao ofendido, o legislador estabeleceu esse regime excepcional com o fim de estimular os provedores a excluírem rapidamente o conteúdo ilícito.</p>
<p>No caso discutido pelo STJ, a pessoa realizou um ensaio fotográfico e consentiu, inicialmente, com a divulgação das imagens às pessoas que adquirissem a revista impressa ou assinassem a revista virtual. No entanto, esse conteúdo foi copiado e divulgado sem autorização em blogs de acesso público hospedados pela Google.</p>
<p>Nesse contexto, a 3ª Turma do STJ enfrenta a seguinte questão: essas imagens possuem caráter privado? Se a resposta for positiva, cabe a aplicação do regime excepcional previsto no artigo 21 do Marco Civil da Internet, de modo que o provedor deverá pagar indenização por não as ter excluído após mera notificação; se for negativa, aplica-se o regime geral previsto no artigo 19 da mesma lei, portanto o provedor não seria condenado a pagar indenização, pois excluiu as imagens assim que foi citado em processo judicial.</p>
<p>De um lado, os ministros Marco Aurélio Bellizze e Moura Ribeiro defenderam a aplicação da regra geral prevista no artigo 19. Ambos destacaram a ilicitude da divulgação das imagens em blogs de acesso público, mas consideraram que a divulgação inicial das fotos na revista impressa e virtual, com consentimento da modelo, retiraria o caráter privado dessas imagens. Desse modo, aplicar-se-ia a regra geral segundo a qual o provedor de aplicações deve ser responsabilizado apenas se descumprir ordem judicial que determine a retirada do conteúdo.</p>
<p>De outro lado, os ministros Nancy Andrighi e Villas Bôas Cueva defendem a aplicação da regra excepcional presente no artigo 21. Em seu brilhante voto, que foi seguido pelo ministro Cueva, Andrighi defende a necessidade de analisar o propósito do consentimento fornecido pela pessoa retratada para fins de aplicação do artigo 21.</p>
<p>Ou seja, deve-se analisar a expectativa de privacidade dessa pessoa sobre as imagens produzidas; se a pessoa autorizou a divulgação das fotos em um âmbito restrito (no caso, pessoas maiores de 18 anos que comprassem a revista ou realizassem a assinatura digital), ela não tinha expectativa de que essas imagens fossem divulgadas em blogs de acesso público e irrestrito.</p>
<p>O entendimento da ministra relatora se mostra correto. Os votos divergentes expuseram uma visão restritiva e anacrônica do conceito de privacidade. O célebre artigo de Samuel D. Warren e Louis D. Brandeis, escrito no final do século 19, consagrou o direito de privacidade como “direito de estar só” (right to be alone)<a href="https://www.jota.info/opiniao-e-analise/artigos/revenge-porn-stj-28102021#_ftn1" name="_ftnref1" rel="nofollow noopener" target="_blank">[1]</a>.</p>
<p>No entanto, a partir de meados do século 20, o desenvolvimento de novos meios de transmissão de informações levou a uma transformação da privacidade, que passou a ser mais associada com a ideia de “controle informacional”. Como destacam Lee e Martins, “na sociedade da informação, tendem a prevalecer definições funcionais da privacidade, que se referem à possibilidade de um sujeito conhecer, controlar, endereçar ou interromper o fluxo das informações que lhe dizem respeito”<a href="https://www.jota.info/opiniao-e-analise/artigos/revenge-porn-stj-28102021#_ftn2" name="_ftnref2" rel="nofollow noopener" target="_blank">[2]</a>.</p>
<p>Nesse cenário, imagens de caráter privado não são apenas aquelas que a pessoa tira para armazenar ou para enviar a um outro indivíduo com quem ela se relaciona. Há diversos níveis de consentimento<a href="https://www.jota.info/opiniao-e-analise/artigos/revenge-porn-stj-28102021#_ftn3" name="_ftnref3" rel="nofollow noopener" target="_blank">[3]</a>, isto é, a pessoa pode escolher não divulgar a imagem, ou divulgá-la para uma pessoa, para dezenas, centenas, milhares ou até mesmo para o público em geral. Sempre que houver alguma restrição de acesso às imagens, não se pode excluir completamente o seu caráter privado.</p>
<p>O Recurso Especial em questão pode servir de parâmetro para diversas outras situações nas quais fotos ou vídeos produzidos para uma determinada finalidade acabam sendo divulgados em sites de pornografia de acesso irrestrito. É o caso de atores ou atrizes que participam de cenas de nudez em filmes ou séries, por exemplo.</p>
<p>Mais recentemente surgiram sites como o OnlyFans<em>,</em><span> </span>utilizados por pessoas que criam fotos ou vídeos sensuais e os disponibilizam para usuários que fazem uma assinatura periódica. Muitas vezes, porém, essas imagens acabam sendo indevidamente copiadas e disponibilizadas em outros sites. Espera-se que o voto de desempate do ministro Paulo de Tarso Sanseverino siga o entendimento exposto pela ministra relatora Andrighi.</p>
<p>&nbsp;</p>
<p>Publicado no <a href="https://www.jota.info/opiniao-e-analise/artigos/revenge-porn-stj-28102021" rel="nofollow noopener" target="_blank">Jota</a>.</p>
<div id="sdr-inbound-form-artigos-impacto-nas-instituicoes-8c5227dd4ede3347a6c6" role="main"></div>
<hr />
<p>&nbsp;</p>
<p class="jota-article__reference"><a href="https://www.jota.info/opiniao-e-analise/artigos/revenge-porn-stj-28102021#_ftnref1" name="_ftn1" rel="nofollow noopener" target="_blank">[1]</a><span> </span>WARREN, Samuel D.; BRANDEIS, Louis D. The Right to Privacy. Harvard Law Review, Vol. 4, No. 5. 1890. pp. 193-220.</p>
<p class="jota-article__reference"><a href="https://www.jota.info/opiniao-e-analise/artigos/revenge-porn-stj-28102021#_ftnref2" name="_ftn2" rel="nofollow noopener" target="_blank">[2]</a><span> </span>KLEE, Antonia Espíndola Longoni; MARTINS, Guilherme Magalhães. A privacidade, a proteção dos dados e dos registros pessoais e a liberdade de expressão: algumas reflexões sobre o Marco Civil da Internet no Brasil (Lei nº 12.965/2014).<span> </span><em>In</em>: DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cintia Rosa Pereira de (Coord.). Direito &amp; Internet III: Marco Civil da Internet (Lei nº 12.965/2014). São Paulo: Quartier Latin, 2014. p. 298.</p>
<p class="jota-article__reference"><a href="https://www.jota.info/opiniao-e-analise/artigos/revenge-porn-stj-28102021#_ftnref3" name="_ftn3" rel="nofollow noopener" target="_blank">[3]</a><span> </span>Cabe destacar o conceito de “consentimento” previsto no artigo 5º, inciso XII, Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018), que acolhe essa visão de controle informacional: “manifestação livre, informada e inequívoca pela qual o titular concorda com o tratamento de seus dados pessoais para uma finalidade determinada”.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://frullanilopes.adv.br/a-superacao-do-revenge-porn/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>O direito autoral e a regulamentação do Marco Civil</title>
		<link>https://frullanilopes.adv.br/o-direito-autoral-e-a-regulamentacao-do-marco-civil-2/</link>
					<comments>https://frullanilopes.adv.br/o-direito-autoral-e-a-regulamentacao-do-marco-civil-2/#respond</comments>
		
		<dc:creator><![CDATA[Frullani Lopes]]></dc:creator>
		<pubDate>Wed, 09 Mar 2022 03:32:23 +0000</pubDate>
				<category><![CDATA[Artigos]]></category>
		<category><![CDATA[digital]]></category>
		<category><![CDATA[direito]]></category>
		<category><![CDATA[direitoautoral]]></category>
		<category><![CDATA[marcocivil]]></category>
		<category><![CDATA[propriedadeintelectual]]></category>
		<guid isPermaLink="false">https://frullanilopes.adv.br/?p=415</guid>

					<description><![CDATA[Interpretação equivocada da legislação está sendo usada pelo governo federal como instrumento para fundamentar e justificar um decreto ilegal, que extrapola suas funções Em meados de maio, tornou-se público um plano do governo federal para alterar o Decreto nº 8.771/2016, que regulamenta o Marco Civil da Internet (Lei nº 12.965/2014), a lei que estabeleceu princípios [&#8230;]]]></description>
										<content:encoded><![CDATA[<h3 class="entry-subtitle">Interpretação equivocada da legislação está sendo usada pelo governo federal como instrumento para fundamentar e justificar um decreto ilegal, que extrapola suas funções</h3>
<p>Em meados de maio, tornou-se público um plano do governo federal para alterar o Decreto nº 8.771/2016, que regulamenta o Marco Civil da Internet (Lei nº 12.965/2014), a lei que estabeleceu princípios e regras para o uso da internet no Brasil. O objetivo principal da medida é impedir que redes sociais e fornecedores de serviços de meios de pagamento excluam, cancelem, suspendam ou limitem, sem decisão judicial prévia, contas ou conteúdos criados por usuários, algo que hoje faz parte da prerrogativa de moderação de conteúdo dessas empresas. Alguns dos argumentos utilizados para justificar essa medida partem de uma interpretação equivocada da legislação de direito autoral.</p>
<p>Como destacou a Folha de S. Paulo, o atual Secretário Nacional de Direitos Autorais e Propriedade Intelectual afirmou que, ao adotarem medidas contra contas ou conteúdos publicados, sem ordem judicial prévia, as empresas de tecnologia violariam a legislação de direito autoral brasileira.</p>
<p>A Nota Técnica assinada pelo Secretário Nacional de Direitos Autorais e Propriedade Intelectual, também divulgada pela imprensa, expressa esse mesmo entendimento: “Com efeito, se o<a href="https://frullanilopes.adv.br/a-responsabilidade-do-provedor-no-marco-civil-da-internet/"> provedor não pode ser responsabilizado</a> pelo conteúdo colocado em sua plataforma, não pode também retirar o conteúdo utilizando como justificativa os termos de uso, independentemente do disposto no ordenamento jurídico pátrio, sob pena de ofensa à liberdade de expressão, à livre circulação de bens culturais e ofensa aos direitos autorais”.</p>
<p>Esse argumento parte de premissas equivocadas. Em primeiro lugar, o artigo 7º da Lei de Direitos Autorais (Lei nº 9.610/1998) estabelece que obras protegidas por esse ramo do direito são “criações do espírito, expressas por qualquer meio ou fixadas em qualquer suporte, tangível ou intangível, conhecido ou que se invente no futuro”. Textos, fotos, vídeos e outras obras criadas pelos usuários são criações intelectuais, portanto recebem proteção por direito autoral; já os perfis, em si mesmos, não são criações intelectuais, por isso não faz sentido lhes atribuir o mesmo tratamento. Essa ampliação indevida do âmbito de proteção do direito autoral parece ter por objetivo limitar a atuação das empresas de tecnologia no combate a infrações reiteradas de usuários contra os seus termos de uso. A minuta do decreto publicada na imprensa comete esse erro ao mencionar que cabe à Secretaria Nacional de Direitos Autorais e Propriedade Intelectual fiscalizar e apurar exclusões, cancelamentos, suspensões ou limitações não apenas de conteúdo, mas também de “contas protegidas por direitos autorais”.</p>
<p>Em segundo lugar, a legislação de direito autoral prevê mecanismos de proteção do autor contra o uso indevido de obras de sua autoria, mas não protege o autor contra a moderação de conteúdo produzido por ele. Isto é, a pessoa que cria uma obra tem o direito de autorizar ou proibir a reprodução, a edição, a adaptação, a distribuição e qualquer tipo de utilização de sua obra, mas não tem a prerrogativa de impedir que o conteúdo produzido seja objeto de controle pelos donos das plataformas em que ocorreu a publicação.</p>
<p>A moderação de textos, fotos, vídeos ou outras obras não é tema tratado pelo direito autoral. Não se nega que há, de fato, abusos e falta de transparência por parte das grandes empresas de tecnologia nessa esfera. O tema é extremamente relevante, mas não tem qualquer relação com o direito autoral. Ainda que um conteúdo seja considerado obra do espírito e, consequentemente, protegido por esse ramo do direito, uma eventual exclusão indevida do conteúdo pelo provedor pode configurar violação da<a href="https://frullanilopes.adv.br/marco-civil-aumenta-inseguranca-sobre-liberdade-de-expressao/"> liberdade de expressão</a>, a depender do caso, mas não de direito autoral.</p>
<p>Há uma hipótese que pode explicar esse esforço argumentativo para atrair o tema da moderação de conteúdo e de contas para o campo do direito autoral. Isso faz parte da estratégia do governo para se defender de críticas de que o decreto extrapola suas funções; isto é, o governo tenta nos convencer de que a legislação atualmente vigente (em especial, a Lei de Direitos Autorais e o Marco Civil da Internet) já impede a moderação espontânea de conteúdo e de perfis por parte dos provedores. Tendo em vista que decretos podem regulamentar leis, mas não as alterar, argumenta-se que esse decreto não criaria regras novas, mas apenas regulamentaria normas que já existem.</p>
<h2>O que diz o Marco Civil da Internet</h2>
<p>Para que essa questão fique mais clara, é necessário retornar ao Marco Civil da Internet. A lei estabelece que, em regra, provedores não são responsáveis por conteúdo ilícito publicado por usuários, a não ser que seja descumprida uma decisão judicial determinando a exclusão do conteúdo. Há algumas exceções, como a exposição de imagens de nudez ou de sexo sem consentimento, em relação às quais basta uma notificação extrajudicial da vítima para que os provedores sejam obrigados a excluir o conteúdo, sob pena de responsabilização.</p>
<p>O Marco Civil da Internet também considera exceção à regra citada no parágrafo anterior à exclusão de conteúdo que viole direito autoral de terceiros, mas abre margem para que uma lei posterior trate do assunto. Porém, ao contrário do que ocorre com conteúdo envolvendo nudez ou sexo, a lei atual não deixa claro a partir de qual momento o provedor se torna responsável pelo conteúdo ilícito. O entendimento majoritário é de que a mera notificação extrajudicial gera o dever de excluir o conteúdo que viola direito autoral.</p>
<p>Conclui-se que a legislação disciplina a responsabilização dos provedores caso não excluam conteúdo ilícito do qual tomaram conhecimento a partir de ordem judicial (regra) ou notificação extrajudicial (exceções presentes na lei); não há, porém, qualquer vedação à exclusão de conteúdos ou de contas por iniciativa própria dos provedores, ainda que não haja ordem judicial ou notificação extrajudicial para tanto. O Marco Civil da Internet não impede que os provedores realizem moderação seguindo suas próprias regras, ao contrário do que defende o governo. A legislação autoral, por sua vez, não confere qualquer “imunidade” desse tipo a criações protegidas por direito autoral. Sendo assim, a minuta do decreto que foi divulgada certamente criaria regras que não se compatibilizam com a legislação.</p>
<p>Portanto, verifica-se que o direito autoral está sendo utilizado pelo governo federal como um instrumento para fundamentar e justificar um decreto ilegal, que extrapola suas funções ao criar regras que não estão previstas na legislação. Deve-se discutir, de fato, a regulamentação das redes sociais e de outras grandes empresas de tecnologia que interferem no debate público, mas esse debate cabe aos Poderes Legislativo e Judiciário. Espera-se que o Poder Executivo desista de realizar interpretações fantasiosas do direito autoral que acabam por desrespeitar a legislação e a Constituição Federal.</p>
<p>Publicado no<span> </span><a href="https://www.nexojornal.com.br/ensaio/2021/O-direito-autoral-e-a-regulamenta%C3%A7%C3%A3o-do-Marco-Civil" rel="nofollow noopener" target="_blank">Nexo Jornal</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://frullanilopes.adv.br/o-direito-autoral-e-a-regulamentacao-do-marco-civil-2/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>STJ não proibiu Airbnb em condomínios</title>
		<link>https://frullanilopes.adv.br/stj-nao-proibiu-airbnb-em-condominios/</link>
					<comments>https://frullanilopes.adv.br/stj-nao-proibiu-airbnb-em-condominios/#respond</comments>
		
		<dc:creator><![CDATA[Frullani Lopes]]></dc:creator>
		<pubDate>Wed, 09 Mar 2022 03:31:38 +0000</pubDate>
				<category><![CDATA[Artigos]]></category>
		<category><![CDATA[airbnb]]></category>
		<category><![CDATA[condominial]]></category>
		<category><![CDATA[direito]]></category>
		<category><![CDATA[imobiliário]]></category>
		<category><![CDATA[inovação]]></category>
		<category><![CDATA[locação]]></category>
		<guid isPermaLink="false">https://frullanilopes.adv.br/?p=413</guid>

					<description><![CDATA[No último dia 20 de abril, uma decisão da 4° Turma do Superior Tribunal de Justiça causou preocupação a milhares de pessoas que alugam apartamentos por meio de aplicativos como o Airbnb. Apesar de formar um precedente que pode ser prejudicial a todos que utilizam essa plataforma em condomínios, o STJ tratou de uma situação [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>No último dia 20 de abril, uma decisão da 4° Turma do Superior Tribunal de Justiça causou preocupação a milhares de pessoas que alugam apartamentos por meio de aplicativos como o Airbnb. Apesar de formar um precedente que pode ser prejudicial a todos que utilizam essa <a href="https://frullanilopes.adv.br/condominio-nao-pode-proibir-locacao-de-imovel-pelo-airbnb/">plataforma em condomínios</a>, o STJ tratou de uma situação específica bastante peculiar, não devendo essa decisão ser utilizada como precedente em todos os casos.</p>
<p>O Recurso Especial nº 1.819.075/RS tratou de um processo ajuizado por um condomínio em face de condôminos que transformaram duas unidades do edifício em algo semelhante a um hostel, já que hospedavam três ou quatro pessoas, as quais alugavam quartos de forma autônoma. Além disso, constatou-se que havia alta rotatividade de pessoas, e que os condôminos prestavam serviços acessórios, como disponibilização de conexão à internet e lavagem de roupas.</p>
<p>No caso, a convenção condominial não proibia expressamente o uso de aplicativos como Airbnb, mas está expresso que a finalidade das unidades é exclusivamente residencial. Por isso, discutiu-se se a disponibilização de imóveis nas circunstâncias citadas acima corresponderia a um uso não-residencial.</p>
<h2 id="exacc_tafCY-bHNvLR1sQPlJu-KA_3" class="iDjcJe IX9Lgd wwB5gf" aria-hidden="true"><span>Pode o condomínio proibir o uso do Airbnb?</span></h2>
<p>Em 2019, o ministro relator Luis Felipe Salomão havia proferido um voto favorável aos condôminos, expressando o entendimento de que a situação concreta não desvirtuaria a finalidade residencial dos imóveis. Contudo, o ministro Raul Araújo pediu vistas, o que levou à suspensão do julgamento. Em abril de 2021, o julgamento foi retomado, com a apresentação de um voto-vista divergente.</p>
<p>De acordo com o ministro Raul Araújo, o conceito de residência pressupõe estabilidade, ainda que seja temporária, o que não se coadunaria com os contratos realizados por meio da Airbnb. Segundo ele, sequer seria possível caracterizar esse negócio jurídico como locação para temporada, pois essa modalidade exigiria, na sua concepção, contrato escrito firmado entre as partes.</p>
<p>O ministro Raul Araújo ainda destacou outros elementos que, segundo ele, violam a destinação residencial do imóvel, como a realização de reformas para transformar um cômodo em dois dormitórios, o que ampliou a capacidade do imóvel para receber hóspedes. Além disso, o oferecimento de serviços acessórios, como internet e lavagem de roupas, também descaracterizaria uma locação residencial. São argumentos bastante discutíveis, que já foram objeto de crítica em<span> </span><strong><a href="https://www.conjur.com.br/2018-jul-17/marcelo-frullani-condominio-nao-proibir-locacao-airbnb" target="_blank" rel="noreferrer noopener nofollow">artigo</a></strong><span> </span>escrito em 2018 nesta revista eletrônica.</p>
<p>Os ministros Isabel Galotti e Antonio Carlos Ferreira seguiram o voto-vista de Raul Araújo. A decisão é, de fato, preocupante porque o voto-vista apresenta argumentos no sentido de que os contratos realizados por meio da Airbnb não teriam finalidade residencial, mas seriam contratos atípicos de hospedagem com finalidade não residencial (o ministro evitou afirmar que se trata de finalidade comercial). De acordo com esse raciocínio, apesar de não corresponderem aos tipos contratuais previstos na Lei nº 11.771/2008, também não se enquadrariam na definição de locação residencial.</p>
<p>No entanto, os dois ministros que seguiram o voto-vista também deixaram claro que a decisão não deve servir de parâmetro para todos os casos que discutem a legalidade do uso da Airbnb por condôminos, já que o caso específico discutido nesse recurso especial apresentava algumas peculiaridades que afastavam a destinação residencial dos imóveis.</p>
<p>Ou seja, discutiu-se no julgamento do recurso se, havendo uma previsão expressão na convenção condominial de que a destinação das unidades é exclusivamente residencial, um condômino pode transformar suas unidades em uma espécie de hostel, fracionando-os e realizando contratos com diferentes hóspedes, havendo alta rotatividade e prestação de serviços acessórios, como disponibilização de internet e lavagem de roupas. A resposta do STJ foi negativa.</p>
<p>Apesar de ter assustado muitas pessoas, essa decisão não proibiu o uso da Airbnb por condôminos, basicamente por três motivos. Em primeiro lugar, o STJ não tem a função de legislar, mas de uniformizar a intepretação das leis federais. O tribunal não poderia proibir o uso de uma plataforma, mas apenas analisar se condomínios podem proibir esse tipo de contrato, levando-se em consideração as circunstâncias fáticas do caso, e a partir da interpretação da convenção condominial e da legislação.</p>
<p>Em segundo lugar, há, de fato, situações em que decisões do STJ são vinculantes, isto é, obrigam que outros casos semelhantes sigam o mesmo entendimento, caso se constate a ocorrência dos mesmos fatos. Trata-se dos chamados recursos repetitivos. Mas não é o caso do recurso especial discutido aqui.</p>
<p>Em terceiro lugar, há um cenário muito diverso de pessoas que utilizam Airbnb: há aqueles que disponibilizam um imóvel inteiro ao longo de meses; outros alugam um quarto de sua própria residência e continuam morando no local. Enfim, há situações que evidentemente não se assemelham ao caso discutido no recurso especial julgado pelo STJ. Da mesma forma, há convenções condominiais diversas: enquanto algumas estabelecem apenas que os condôminos não podem desvirtuar a finalidade residencial das unidades, outras preveem uma proibição expressa do uso de plataformas como Airbnb.</p>
<p>Portanto, apesar de a decisão do STJ ser preocupante, não se deve chegar à conclusão de que os condomínios residenciais podem proibir imediatamente todos os condôminos de utilizarem a plataforma para disponibilizar a terceiros parte ou todo de suas unidades. As discussões ainda devem se prolongar durante muito tempo nos tribunais enquanto não houver uma regulamentação dessa questão por meio do Poder Legislativo.</p>
<p>Publicado no<span> </span><a href="https://www.conjur.com.br/2021-mai-16/marcelo-lopes-stj-nao-proibiu-airbnb-condominios" rel="nofollow noopener" target="_blank">Conjur</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://frullanilopes.adv.br/stj-nao-proibiu-airbnb-em-condominios/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>2020 deve ser ano central para a regulação das redes sociais nos EUA</title>
		<link>https://frullanilopes.adv.br/2020-deve-ser-ano-central-para-a-regulacao-das-redes-sociais-nos-eua/</link>
					<comments>https://frullanilopes.adv.br/2020-deve-ser-ano-central-para-a-regulacao-das-redes-sociais-nos-eua/#respond</comments>
		
		<dc:creator><![CDATA[Frullani Lopes]]></dc:creator>
		<pubDate>Wed, 09 Mar 2022 03:11:38 +0000</pubDate>
				<category><![CDATA[Artigos]]></category>
		<category><![CDATA[digital]]></category>
		<category><![CDATA[direito]]></category>
		<category><![CDATA[facebook]]></category>
		<category><![CDATA[google]]></category>
		<category><![CDATA[inovação]]></category>
		<category><![CDATA[instagram]]></category>
		<category><![CDATA[whatsapp]]></category>
		<guid isPermaLink="false">https://frullanilopes.adv.br/?p=403</guid>

					<description><![CDATA[Pandemia do novo coronavírus tornou a moderação rápida e eficiente de conteúdo falso ou descontextualizado O ano de 2020 certamente ficará marcado na memória de muitas gerações. A disseminação do novo coronavírus ao redor de todos os continentes e a realização de uma das eleições presidenciais mais conturbadas e importantes da história são fatores decisivos [&#8230;]]]></description>
										<content:encoded><![CDATA[<h3 class="entry-subtitle">Pandemia do novo coronavírus tornou a moderação rápida e eficiente de conteúdo falso ou descontextualizado</h3>
<p>O ano de 2020 certamente ficará marcado na memória de muitas gerações. A disseminação do novo coronavírus ao redor de todos os continentes e a realização de uma das eleições presidenciais mais conturbadas e importantes da história são fatores decisivos para o futuro de todo o planeta. No meio desse caldeirão de acontecimentos, verifica-se um aumento da pressão, vinda de todos os espectros ideológicos, para a criação de novos modelos de regulação das redes sociais.</p>
<p>Há quatro anos, a eleição inesperada de Donald Trump acendeu um alerta para os riscos causados por uma postura neutra e indiferente de empresas gigantes da área de tecnologia, como Facebook, Twitter e Google, quanto ao conteúdo publicado pelos usuários e quanto a comportamentos inautênticos e coordenados que manipulam o debate público.</p>
<p>Por atuarem no ambiente digital, as regras aplicadas a essas empresas nos EUA produzem efeitos em todos os países. Assim, a Seção 230 do<span> </span><em>Communications Decency Act</em>, que prevê uma isenção de responsabilidade das plataformas pelo conteúdo publicado por usuários norteou a postura dessas empresas. O objetivo delas era, basicamente, não atuar como um “editor” do conteúdo publicado, de modo que não haveria responsabilização por danos causados a terceiros.</p>
<h2>Desinformação abre debate para reuglação das redes sociais nos EUA</h2>
<p>Porém, na medida em que ficou evidente a relevância da desinformação e da manipulação dos dados pessoais dos usuários para o resultado das eleições, em especial após a divulgação do escândalo da<span> </span><em>Cambridge Analytica</em>, houve um aumento da pressão para que o modelo de regulação das redes sociais fosse alterado, com atribuição de maiores responsabilidades a essas empresas.</p>
<p>Num primeiro momento, a discussão partiu especialmente dos setores mais progressistas da política norte-americana. Até por isso, o CEO do Facebook, Mark Zuckerberg, chegou a ensaiar uma aproximação com Trump, aproveitando-se da guerra comercial contra a China para apresentar sua empresa como um contraponto ao avanço de aplicativos como o<span> </span><em>TikTok</em>.</p>
<p>Acontecimentos do atribulado ano de 2020 devem, no entanto, tornar inevitável o avanço para um novo modelo de regulação das redes sociais. No começo do ano, a pandemia do novo coronavírus tornou a moderação rápida e eficiente de conteúdo falso ou descontextualizado algo central para salvar milhares de vidas. Neste momento em que as pesquisas de diversas vacinas avançam, preocupa a disseminação de conteúdo antivacinação.</p>
<p>A neutralidade e o distanciamento mencionados acima passaram a ser malvistos por grande parte das pessoas, já que suas vidas e as de seus amigos e familiares encontram-se em risco. Dessa forma, até mesmo presidentes de países, como Trump e Bolsonaro, sofreram restrições em algumas de suas publicações.</p>
<p>Além disso, um outro fator ocorrido neste final de ano deve estimular o debate sobre regulação de redes sociais. Em meados de outubro, o jornal<span> </span><em>The New York Post</em>, de Rupert Murdoch, publicou uma reportagem com denúncias que atingiam Hunter Biden, filho do candidato democrata Joe Biden. Algumas passagens da reportagem foram objeto de muito questionamento por parte de outros veículos da imprensa, como<span> </span><em>New York Times<span> </span></em>e<span> </span><em>Washington Post</em>, mas os detalhes não vêm ao caso. O importante, aqui, é discutir as medidas erráticas tomadas pelas redes sociais.</p>
<p>Num primeiro momento, o Twitter suspendeu a conta do jornal e bloqueou o acesso à reportagem, alegando que ela conteria material obtido por meio de um hacker e que seriam de cunho particular, o que supostamente contrariaria suas políticas. Poucos dias depois, o CEO Jack Dorsey afirmou que a decisão havia sido equivocada. O Facebook, por sua vez, não chegou a excluir o conteúdo ou suspender a conta do jornal, mas limitou o alcance da publicação enquanto os checadores de fatos não finalizassem a investigação.</p>
<p>Isso pode estimular os setores mais<a href="https://frullanilopes.adv.br/o-entrincheiramento-da-direita-nas-redes-sociais/"> conservadores da política</a> norte-americana a entrarem de vez no debate acerca da regulação das redes sociais. Aliás, em audiência realizada no Senado Federal norte-americano na última semana de outubro, os CEOs do Twitter e do Facebook foram muito questionados por parlamentares republicanos acerca do caso<span> </span><em>New York Post</em><sup>[1]</sup>. Sentindo a nova tendência, os executivos se mostraram mais flexíveis para discutir eventual atualização das regras.</p>
<p>Portanto, 2020 pode ser lembrado no futuro como um ano decisivo no qual as grandes empresas que administram as redes sociais se viram obrigadas a mudar de estratégia, passando a atuar de forma mais proativa para evitar a <a href="https://frullanilopes.adv.br/em-tempos-de-coronavirus-ha-tambem-a-pandemia-da-desinformacao/">disseminação de desinformaçã</a>o e a manipulação do debate público.</p>
<p>Além disso, a pressão generalizada de diversos setores da sociedade norte-americana deve fazer com que um novo modelo de regulação que torne o processo de moderação de conteúdo mais transparente e criterioso seja discutido, o que certamente causará impactos em todos os países nos quais elas atuam. Não será fácil, porém, encontrar pontos de consenso em uma sociedade tão polarizada quanto a norte-americana.</p>
<p><a href="https://www.jota.info/opiniao-e-analise/artigos/redes-sociais-eua-16112020?fbclid=IwAR26KOHUCwRmEA9yaKY_j3EpH2Q33z0ypPWyyxCnLt6gYm5fffaeyQlQtyo#_ftnref1" rel="nofollow noopener" target="_blank">[1]</a><span> </span>Após a eleição, o Twitter inseriu notificações nas publicações em que Trump questionava a confiabilidade das apurações, o que também deve causar insatisfação entre os republicanos.</p>
<p>Publicado no<span> </span><a href="https://www.jota.info/opiniao-e-analise/artigos/redes-sociais-eua-16112020" rel="nofollow noopener" target="_blank">Jota</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://frullanilopes.adv.br/2020-deve-ser-ano-central-para-a-regulacao-das-redes-sociais-nos-eua/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>A responsabilidade do Google por revenge porn</title>
		<link>https://frullanilopes.adv.br/a-responsabilidade-do-google-por-revenge-porn/</link>
					<comments>https://frullanilopes.adv.br/a-responsabilidade-do-google-por-revenge-porn/#respond</comments>
		
		<dc:creator><![CDATA[Frullani Lopes]]></dc:creator>
		<pubDate>Wed, 09 Mar 2022 03:05:29 +0000</pubDate>
				<category><![CDATA[Artigos]]></category>
		<category><![CDATA[direito]]></category>
		<category><![CDATA[google]]></category>
		<category><![CDATA[inovação]]></category>
		<category><![CDATA[revengeporn]]></category>
		<guid isPermaLink="false">https://frullanilopes.adv.br/?p=401</guid>

					<description><![CDATA[A expressão inglesa revenge porn (“pornô de vingança”) infelizmente se tornou muito conhecida no Brasil nos últimos anos, já que o compartilhamento de fotos e vídeos íntimos sem o consentimento da pessoa retratada tornou-se mais fácil em decorrência dos smartphones e das redes sociais. O termo “pornô de vingança” não é o ideal, pois costuma abarcar situações em que [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>A expressão inglesa <em>revenge porn</em> (“pornô de vingança”) infelizmente se tornou muito conhecida no Brasil nos últimos anos, já que o compartilhamento de fotos e vídeos íntimos sem o consentimento da pessoa retratada tornou-se mais fácil em decorrência dos <em>smartphones</em> e das redes sociais.</p>
<p>O termo “pornô de vingança” não é o ideal, pois costuma abarcar situações em que o compartilhamento não se dá por vingança. Seja qual for o motivo, porém, as consequências para a vítima costumam ser parecidas. A partir do momento em que a imagem se espalha nas redes sociais ou em sites pornográficos, torna-se praticamente impossível restringir essa disseminação. Se o compartilhamento ainda ocorreu com o uso do nome da vítima, pior ainda: basta uma pesquisa pelo nome dela no Google para encontrar uma série de <em>links</em> e imagens dela.</p>
<p>A vítima pode se valer do artigo 21 do Marco Civil da Internet (Lei nº 12.965/14) para requerer a exclusão do conteúdo ilícito diretamente dos sites em que houve a publicação. Segundo esse dispositivo, o provedor de aplicações de internet que disponibilizar conteúdo gerado por terceiros que viole a intimidade de alguém pela divulgação de imagens, vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado, será responsabilizado subsidiariamente se não retirar esse conteúdo do ar após mera notificação. Trata-se de uma exceção à regra prevista no artigo 19, segundo a qual os provedores devem ser responsabilizados por conteúdo ilícito postado por terceiro apenas se descumprirem ordem judicial que determine a exclusão.</p>
<p>Esse artigo é, de fato, muito importante, porém muitas vezes é ineficaz. Boa parte dos sites pornográficos são sediados em outros países, e muitos deles sequer oferecem a opção de enviar notificações. Quando oferecem a opção, as notificações precisam ser enviadas em inglês, o que dificulta a vida de grande parte da população brasileira que é vítima desses atos. Para piorar a situação, a partir do momento em que o conteúdo se espalha na <em>web</em>, torna-se necessário notificar centenas, às vezes milhares, de sites.</p>
<h2>O provedor pode ser responsabilizado por revenge porn</h2>
<p>Mas e o <a href="https://frullanilopes.adv.br/marco-civil-da-internet-retira-onus-de-provedores/">provedor de busca</a>, pode ser responsabilizado? Para avaliar essa possibilidade, é imprescindível verificar como funciona um provedor como o Google. Como o próprio Google explica<a href="https://www.conjur.com.br/2020-fev-26/frullani-lopes-responsabilidade-google-revenge-porn?fbclid=IwAR3vODVjFHSXOfr4TdGvqdD95Dh_Ppu8nnT1Hx7pwXwjwjEtnZi-vdQjNgM#_ftn1" rel="nofollow noopener" target="_blank">[1]</a>, sua atividade é dividida em três partes: a) rastreamento (utilizam-se programas automatizados chamados “rastreadores” para procurar páginas novas ou atualizadas; as URLs das páginas são armazenadas em uma grande lista); b) indexação (a página rastreada é acessada pelo Google e seu conteúdo é analisado, inclusive imagens e arquivos de vídeo, para que se identifique sobre o que essa página trata; essa informação fica registrada em um grande banco de dados denominado “índice do Google”); c) exibição dos resultados de pesquisa (quando um usuário faz uma pesquisa no provedor de busca, o Google busca classificar quais são os resultados mais próximos daquilo que foi pesquisado; esse processo de classificação é feito por uma série de algoritmos).</p>
<p>Em função desse papel de intermediário do provedor de busca, o Superior Tribunal de Justiça já se manifestou, no famoso caso da apresentadora Xuxa Meneghel (Recurso Especial nº 1.316.921/RJ), que o Google apenas indica <em>links</em> de acordo com os termos da pesquisa, mas não gerencia os sites. Por isso, o provedor de busca não poderia ser obrigado a eliminar de seu sistema os resultados derivados da busca por determinado termo ou expressão. Caberia à vítima demandar contra cada um dos sites individualmente considerados.</p>
<p>Porém, essa descrição da atividade do Google é simplista e não abrange mecanismos mais sofisticados que o provedor de busca desenvolveu ao longo dos anos. Um desses mecanismos é a<a href="https://frullanilopes.adv.br/a-lei-geral-de-protecao-de-dados-pessoais-e-o-direito-de-imagem/"> pesquisa de imagens</a> (Google Imagens). Enquanto o mecanismo de pesquisa tradicional fornece apenas a parte textual de sites, o Google Imagens disponibiliza diretamente as imagens consideradas mais adequadas às palavras-chave pesquisadas pelo usuário (hoje em dia, o mecanismo também permite que se faça um upload de uma imagem ou se indique o URL de uma imagem para encontrar outras iguais ou semelhantes na <em>web</em>). O mecanismo de pesquisa apresenta essas imagens em miniatura. O usuário pode clicar na imagem desejada, que é ampliada. Também é possível acessar o site em que essa imagem foi encontrada.</p>
<p>Como o Google Imagens disponibiliza diretamente conteúdo produzido por terceiros, então deve ser aplicado o artigo 21 do Marco Civil da Internet. Isto é, se o provedor de busca não retirar do ar, após mera notificação extrajudicial, conteúdo de nudez ou de sexo publicado sem o consentimento da parte retratada, pode ser responsabilizado subsidiariamente pelos danos causados. Não há necessidade, portanto, de ajuizamento de ação por parte da vítima. Ainda que o Google não seja o site original em que o conteúdo ilícito foi postado, não se pode ignorar que o provedor de busca o disponibiliza diretamente em seu mecanismo Google Imagens.</p>
<p>Importante destacar que essa notificação pode ser feita, atualmente, por meio de um formulário disponibilizado pelo Google<a href="https://www.conjur.com.br/2020-fev-26/frullani-lopes-responsabilidade-google-revenge-porn?fbclid=IwAR3vODVjFHSXOfr4TdGvqdD95Dh_Ppu8nnT1Hx7pwXwjwjEtnZi-vdQjNgM#_ftn2" rel="nofollow noopener" target="_blank">[2]</a>, que possui uma Política de Remoção que determina a remoção de imagens pornográficas falsas ou não consentidas. Em muitos casos, porém, nem todas as imagens são retiradas após o envio desse formulário, o que torna necessário o ajuizamento de ação em face do provedor de buscas. Nessa situação, não caberia a aplicação da argumentação do STJ no caso “Xuxa Meneghel”, pois no Google Imagens o provedor de busca não indica apenas <em>links</em>, mas disponibiliza de fato o conteúdo.</p>
<p>Obviamente, não se trata de imputar ao <a href="https://frullanilopes.adv.br/a-superacao-do-revenge-porn/">Google a obrigação de excluir as imagens</a> e os vídeos dos sites em que se encontram publicados. Ainda se mostra imprescindível notificar cada um dos sites para que o conteúdo seja excluído. Porém, a retirada das imagens do mecanismo de pesquisa do Google dificulta bastante que estas sejam encontradas por meio de uma simples pesquisa feita com o nome da vítima.</p>
<hr class="wp-block-separator" />
<p><a href="https://www.conjur.com.br/2020-fev-26/frullani-lopes-responsabilidade-google-revenge-porn?fbclid=IwAR3vODVjFHSXOfr4TdGvqdD95Dh_Ppu8nnT1Hx7pwXwjwjEtnZi-vdQjNgM#_ftnref1" rel="nofollow noopener" target="_blank">[1]</a> Disponível em &lt;<a href="https://support.google.com/webmasters/answer/9128586" rel="nofollow noopener" target="_blank">https://support.google.com/webmasters/answer/9128586</a>&gt;. Acesso em 17 de fevereiro de 2020.</p>
<p><a href="https://www.conjur.com.br/2020-fev-26/frullani-lopes-responsabilidade-google-revenge-porn?fbclid=IwAR3vODVjFHSXOfr4TdGvqdD95Dh_Ppu8nnT1Hx7pwXwjwjEtnZi-vdQjNgM#_ftnref2" rel="nofollow noopener" target="_blank">[2]</a> Disponível em &lt;<a href="https://support.google.com/websearch/troubleshooter/9685456#ts=2889054%2C2889099" rel="nofollow noopener" target="_blank">https://support.google.com/websearch/troubleshooter/9685456#ts=2889054%2C2889099</a>&gt;. Acesso em 17 de fevereiro de 2020.</p>
<p>Publicado no<span> </span><a href="https://www.conjur.com.br/2020-fev-26/frullani-lopes-responsabilidade-google-revenge-porn?fbclid=IwAR3vODVjFHSXOfr4TdGvqdD95Dh_Ppu8nnT1Hx7pwXwjwjEtnZi-vdQjNgM" rel="nofollow noopener" target="_blank">Conjur</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://frullanilopes.adv.br/a-responsabilidade-do-google-por-revenge-porn/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>O entrincheiramento da direita nas redes sociais</title>
		<link>https://frullanilopes.adv.br/o-entrincheiramento-da-direita-nas-redes-sociais/</link>
					<comments>https://frullanilopes.adv.br/o-entrincheiramento-da-direita-nas-redes-sociais/#respond</comments>
		
		<dc:creator><![CDATA[Frullani Lopes]]></dc:creator>
		<pubDate>Wed, 09 Mar 2022 03:01:16 +0000</pubDate>
				<category><![CDATA[Artigos]]></category>
		<category><![CDATA[digital]]></category>
		<category><![CDATA[direito]]></category>
		<category><![CDATA[facebook]]></category>
		<category><![CDATA[google]]></category>
		<category><![CDATA[inovação]]></category>
		<category><![CDATA[instagram]]></category>
		<category><![CDATA[twitter]]></category>
		<category><![CDATA[whatsapp]]></category>
		<guid isPermaLink="false">https://frullanilopes.adv.br/?p=397</guid>

					<description><![CDATA[Grupos radicais tendem a criar suas próprias plataformas digitais para fugir de restrições de conteúdo, que se mostraram mais necessárias durante a pandemia As grandes empresas de tecnologia que administram redes sociais estão, mais do que nunca, sentindo-se pressionadas a alterar suas políticas de combate à desinformação e ao discurso de ódio. A pandemia de [&#8230;]]]></description>
										<content:encoded><![CDATA[<h3 class="entry-subtitle">Grupos radicais tendem a criar suas próprias plataformas digitais para fugir de restrições de conteúdo, que se mostraram mais necessárias durante a pandemia</h3>
<p>As grandes empresas de tecnologia que administram redes sociais estão, mais do que nunca, sentindo-se pressionadas a alterar suas políticas de combate à desinformação e ao discurso de ódio. A pandemia de covid-19 tem exercido forte influência nesse sentido, em virtude da constatação de que <a href="https://frullanilopes.adv.br/em-tempos-de-coronavirus-ha-tambem-a-pandemia-da-desinformacao/">notícias falsas ou distorcidas</a> envolvendo a doença causam danos à saúde e à vida das pessoas. Trata-se de um momento muito importante, em que decisões tomadas tanto por essas empresas quanto por órgãos de regulação estatais podem causar impactos profundos no cenário do debate público ao longo dos próximos anos.</p>
<p>No Brasil, vários movimentos indicam a mudança de postura das plataformas digitais. Publicações em que o<a href="https://frullanilopes.adv.br/bolsonaro-pode-bloquear-pessoas-que-o-criticam-no-twitter/"> presidente Jair Bolsonaro</a> negava a gravidade da pandemia e aparecia, em vídeos, cumprimentando pessoas na rua e gerando aglomerações foram excluídas do Twitter, do Facebook e do Instagram recentemente. No início de julho, foram banidas algumas contas vinculadas a assessores do presidente e de seus filhos por comportamento que fere os termos de uso do Facebook. Já um projeto de lei voltado ao combate à desinformação foi aprovado no Senado Federal.</p>
<p>O Twitter também fechou o cerco contra Donald Trump, inserindo avisos contra o conteúdo inverídico em algumas de suas publicações. O presidente dos EUA colocava em dúvida a confiabilidade do voto pelo correio no país, que pode se mostrar necessário em decorrência das recomendações de distanciamento social serem a principal forma de controlar a disseminação do novo coronavírus. Em resposta à ação da plataforma, Trump expediu uma ordem executiva com potencial de ampliar a responsabilização das empresas por conteúdos postados pelos usuários. Apesar de o Facebook ter discordado dessa postura no início, agora se vê obrigado a repensar seus planos, em função de uma campanha de boicote à publicidade em suas plataformas, apoiada por uma série de grandes empresas. O Reddit excluiu um fórum de apoiadores de Trump, enquanto o Twitch suspendeu sua conta de campanha.</p>
<h2>Combate a desinformação pressiona as plataformas digitais</h2>
<p>Essa pressão sobre as redes sociais não é uma novidade. Há muitos anos discutem-se formas de combate à desinformação e ao discurso de ódio nessas plataformas. Porém, boa parte delas sempre manteve uma retórica de defesa da<a href="https://frullanilopes.adv.br/a-liberdade-de-expressao-segundo-mark-zuckerberg/"> liberdade de expressão</a> quase absoluta. São vários os motivos que explicam esse discurso, mas dois devem ser destacados: em primeiro lugar, a estratégia de não serem confundidas com empresas de mídia, e assim evitar a responsabilização pelo conteúdo postado pelos usuários; em segundo lugar, como quase todas estão sediadas nos EUA, seguem a doutrina bastante protetora da liberdade de expressão do país, segundo a qual devem ser limitadas apenas as “incitações à ação legal iminente”, isto é, quando há risco de que a expressão possa causar algum dano concreto.</p>
<p>Em anos anteriores, as gigantes de tecnologia precisaram reconhecer que, em alguns casos, notícias falsas e discurso de ódio podem contribuir concretamente para a violência. O Facebook admitiu, por exemplo, que a disseminação de notícias falsas contribuiu diretamente para diversos ataques perpetrados contra membros da minoria muçulmana rohingya em Mianmar. O WhatsApp, do mesmo grupo econômico do Facebook, limitou o número de compartilhamento de mensagens após informações falsas motivarem linchamentos na Índia.</p>
<p>Outro fator que se somou à onda de pressão sobre as redes sociais foram os protestos subsequentes ao assassinato de George Floyd por um policial nos EUA. A cena revoltante da morte por asfixia estimulou manifestações naquele país e depois em vários outros lugares do mundo, exigindo medidas mais concretas de combate ao racismo. Certamente, os danos econômicos e sociais causados pela pandemia também contribuíram para o aumento da indignação, já que vários estudos apontam que a população tem sido atingida de forma extremamente desigual, com os negros entre os mais prejudicados.</p>
<p>O negacionismo expresso por políticos de extrema direita quanto a esses problemas sociais também se estendeu para a pandemia. A partir de março, mês em foram adotadas medidas mais radicais de distanciamento social em todos os continentes, houve a disseminação de diversas notícias falsas, seja sobre a origem do vírus, a eficácia de medidas recomendadas pela OMS (Organização Mundial de Saúde) ou a existência de curas milagrosas. Esse negacionismo não se restringe à extrema direita, mas, em especial nos EUA e no Brasil, foram os presidentes Trump e Bolsonaro e seus apoiadores que mais ajudaram a disseminar desinformação sobre a doença.</p>
<p>Trata-se de fato notório que a onda de extrema direita que atingiu vários países se alimentou da dinâmica das redes sociais, como Twitter, Facebook e YouTube. A mudança de postura dos administradores dessas plataformas em semanas recentes, em decorrência das pressões advindas da sociedade, de governos e de grandes empresas, causou uma migração de extremistas para uma plataforma que garante liberdade praticamente absoluta, chamada Parler.</p>
<p>Criada em 2018 pelo americano John Matzer, a plataforma ainda é muito pequena em comparação às gigantes, mas começou a ganhar relevância quando apoiadores de Donald Trump passaram a se inscrever nela, alegando que seriam “perseguidos” pelas redes sociais tradicionais. Como não poderia deixar de ser, os apoiadores de Jair Bolsonaro seguiram o mesmo caminho no Brasil. O próprio presidente brasileiro já tem um perfil na plataforma, assim como seus filhos.</p>
<p>Esse movimento é relevante por diversas razões. Em anos recentes, costumou-se dizer que os algoritmos das redes sociais formavam “bolhas” nas quais as pessoas apenas acompanhavam opiniões semelhantes às delas; agora, há uma tendência de que a bolha de extrema direita migre parcialmente para outra plataforma. Isso deve dificultar ainda mais o diálogo e tende a criar um nicho mais radicalizado de pessoas que se sentirão à vontade para proferir discursos de ódio e compartilhar desinformação. Além disso, será mais difícil o acompanhamento pela imprensa e pela sociedade em geral do conteúdo postado pelas pessoas desse espectro político, já que se trata de uma rede social ainda pouco povoada.</p>
<p>Não é plausível imaginar que haverá um abandono completo das grandes redes sociais por parte dos políticos de extrema direita e seus apoiadores, já que elas ainda são importantes para se comunicar com boa parte da população, além de serem “termômetros” da opinião pública. Deve haver, no entanto, uma certa segmentação de conteúdo. Isto é, as ideias mais radicais e, dependendo do caso, ilícitas, serão deixadas para o Parler, fugindo-se, assim, do controle exercido pelas grandes plataformas, consideradas “esquerdistas” por eles.</p>
<p>A pandemia do novo coronavírus escancarou, portanto, o problema da disseminação de discurso de ódio e de desinformação nas redes sociais. Esses conteúdos produzem efeitos não apenas no campo simbólico, mas estimulam comportamento antissocial e violência contra os setores mais vulneráveis da população. Não se deve pensar, porém, que a adoção de medidas mais concretas pelas grandes redes sociais representa uma vitória definitiva. Na verdade, a polarização dentro das redes deve passar por uma mutação, chegando-se agora à polarização entre redes, situação na qual parte delas controlará o conteúdo postado, enquanto a outra parte garantirá liberdade praticamente absoluta aos usuários.</p>
<p>Publicado no<span> </span><a href="https://www.nexojornal.com.br/ensaio/debate/2020/O-entrincheiramento-da-extrema-direita-nas-redes-sociais" rel="nofollow noopener" target="_blank">Nexo Jornal</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://frullanilopes.adv.br/o-entrincheiramento-da-direita-nas-redes-sociais/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>O caos nas redes em meio à pandemia</title>
		<link>https://frullanilopes.adv.br/o-caos-nas-redes-em-meio-a-pandemia/</link>
					<comments>https://frullanilopes.adv.br/o-caos-nas-redes-em-meio-a-pandemia/#respond</comments>
		
		<dc:creator><![CDATA[Frullani Lopes]]></dc:creator>
		<pubDate>Wed, 09 Mar 2022 02:57:55 +0000</pubDate>
				<category><![CDATA[Artigos]]></category>
		<category><![CDATA[digital]]></category>
		<category><![CDATA[direito]]></category>
		<category><![CDATA[facebook]]></category>
		<category><![CDATA[inovação]]></category>
		<category><![CDATA[instagram]]></category>
		<category><![CDATA[marcocivil]]></category>
		<category><![CDATA[twitter]]></category>
		<category><![CDATA[whatsapp]]></category>
		<guid isPermaLink="false">https://frullanilopes.adv.br/?p=395</guid>

					<description><![CDATA[Devem ser discutidos mecanismos que aumentem a segurança e a confiança Nas últimas semanas, aumentou a tensão entre o presidente dos EUA, Donald Trump, e as grandes empresas de tecnologia que administram redes sociais. Em 26 de maio, o Twitter inseriu advertências em uma publicação na qual Trump afirmou que o governador da Califórnia estaria [&#8230;]]]></description>
										<content:encoded><![CDATA[<h3 class="entry-subtitle">Devem ser discutidos mecanismos que aumentem a segurança e a confiança</h3>
<p>Nas últimas semanas, aumentou a tensão entre o presidente dos EUA, Donald Trump, e as grandes empresas de tecnologia que administram redes sociais. Em 26 de maio, o Twitter inseriu advertências em uma publicação na qual Trump afirmou que o governador da Califórnia estaria tentando promover a votação para a eleição presidencial deste ano por correio para fraudá-la. Abaixo de cada postagem, a rede social remeteu os usuários a páginas que negam as afirmações do presidente. Além disso, inseriu uma notificação informando que agências de checagem afirmaram que não há evidências envolvendo fraudes em votações por correios.</p>
<p>Já no dia 29, foi ocultada uma publicação na qual o presidente norte-americano afirmou que a polícia deveria atirar caso houvesse saques nas manifestações que eclodiram após o assassinato de George Floyd por um policial. Esse “post” não foi excluído, mas ocultado, isto é, o usuário precisava ler uma notificação na qual o Twitter avisava que o conteúdo continha incentivo a violência antes de visualizá-lo. Além disso, houve limitação do alcance da publicação, ou seja, menos pessoas a visualizaram no “feed”. Mas a rede social considerou que era de interesse público não excluir a publicação.</p>
<p>Em seguida, o CEO do Facebook criticou a decisão tomada pelo Twitter. A rede social de Mark Zuckerberg manteve no ar exatamente as mesmas publicações, e por isso sofreu críticas públicas de vários de seus funcionários. Curiosamente, no Brasil tanto o Facebook quanto o Instagram (empresa do mesmo grupo econômico) seguiram o Twitter, no fim de março, na decisão de excluir (não simplesmente ocultar ou inserir advertências) publicações em que o presidente Jair Bolsonaro passeava pelas ruas do Distrito Federal em plena pandemia e tratava de remédios cuja eficácia não tem comprovação científica. Nesse caso, as redes sociais avaliaram que as informações transmitidas por Bolsonaro geravam risco de causar danos reais às pessoas.</p>
<h2>A polêmica da exclusão de post durante a pandemia</h2>
<p>O debate sobre o papel que deve ser exercido pelas redes sociais quanto à imposição de limites ao direito de liberdade de expressão precede a pandemia, mas o clima tenso escancarou e amplificou essa questão. Nos EUA, Trump expediu um decreto que pode levar a uma relativização da proteção que as redes sociais possuem quanto à responsabilidade por conteúdos postados por seus usuários. No Brasil, dois Projetos de Lei, sendo de autoria dos deputados Felipe Rigoni e Tabata Amaral (nº 1.429/2020), e outro do Senador Alessandro Vieira (nº 2.630/2020), podem levar a alterações no<a href="https://frullanilopes.adv.br/a-responsabilidade-do-provedor-no-marco-civil-da-internet/"> regime de responsabilidade civil dos provedores de aplicações</a> (como Facebook e Twitter).</p>
<blockquote class="wp-block-quote"><p>Se nos dois casos as redes sociais foram colocadas contra a parede, as motivações são bastante distintas. Trump busca exercer uma pressão para que as empresas flexibilizem as regras de controle de conteúdo; no Brasil, o objetivo do Projeto de Lei é o oposto, isto é, forçar as empresas a aumentar o controle.</p></blockquote>
<p>A polêmica sobre o papel das redes sociais no controle da liberdade de expressão vai muito além das chamadas <a href="https://frullanilopes.adv.br/em-tempos-de-coronavirus-ha-tambem-a-pandemia-da-desinformacao/">“fake news”, ou “desinformações”</a>. A ocultação do post de Trump no dia 29 não ocorreu por desinformação, mas por incentivo à violência, por exemplo. Se essa mesma publicação tivesse sido feita por um cidadão comum, talvez a publicação fosse excluída, mas como foi realizada pelo presidente dos EUA, há um interesse histórico pela sua preservação, o que provavelmente motivou o Twitter a simplesmente ocultar e inserir uma advertência. Mas não está claro o motivo pelo qual o mesmo critério não foi adotado no caso do presidente brasileiro.</p>
<p>Há problemas mais sérios a serem enfrentados do que a falta de responsabilização das redes sociais por conteúdos postados por terceiros. A instabilidade e a falta de transparência e uniformidade dos critérios utilizados por essas empresas é um desses. Atualmente, as grandes empresas sediadas no Vale do Silício praticamente dominam o debate público. Políticos utilizam as redes sociais para um contato “direto” e “sem filtros” com a população. Partidos e movimentos sociais usam as redes sociais para mobilizarem o público por determinadas causas.</p>
<p>Contudo, os critérios utilizados por essas empresas para moderar o debate público são pouco claros e mudam a todo instante, a depender dos interesses momentâneos. Conforme descrito acima, apesar de Mark Zuckerberg ter criticado a ocultação da publicação de Trump, há pouco mais de dois meses o Instagram excluiu vídeos de Bolsonaro; na mesma linha, o Twitter não apresenta clareza sobre os critérios utilizados para decidir se um “post” será excluído, ocultado, se será inserida uma notificação ou se o alcance será diminuído. A questão do alcance, aliás, é ainda mais opaca, já que praticamente não há qualquer transparência dos meios tecnológicos usados para esse fim. O que justifica o fato de uma pessoa continuar recebendo essa publicação com destaque, enquanto outra não?</p>
<p>Essa falta de clareza e de uniformidade dos critérios acaba sendo um ótimo pretexto para que políticos com viés autoritário afirmem que estão sofrendo censura. Por outro lado, os usuários também ficam confusos quanto aos motivos que levaram determinada publicação a ser excluída, mantida, ter seu alcance reduzido ou ocorrer uma mera adição de uma advertência.</p>
<p>O tema é delicado e merece profundas reflexões e discussões. As redes sociais não podem, de fato, ter uma margem de decisão tão ampla sobre o que pode ou não ser objeto de debate público. Mas, em vez de se colocar um foco exclusivo no controle prévio de conteúdo, devem ser discutidos mecanismos que aumentem a segurança e a confiança dos usuários nas redes sociais, estabelecendo, dentre outros pontos, critérios mais uniformes e objetivos para exclusão, restrição do alcance de publicações ou adição de advertências. Essa discussão não pode, porém, ser feita de forma afoita. Não será uma regulamentação apressada das redes sociais que resolverá o problema da desinformação durante a pandemia.</p>
<p>Publicado no<span> </span><a href="https://www.jota.info/opiniao-e-analise/artigos/o-caos-nas-redes-em-meio-a-pandemia-19062020" rel="nofollow noopener" target="_blank">Jota</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://frullanilopes.adv.br/o-caos-nas-redes-em-meio-a-pandemia/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
