Nos últimos dias, voltou à tona a problemática [1] questão da responsabilidade civil de provedores de aplicação por conteúdo inserido por terceiros com o julgamento de dois casos na Suprema Corte dos Estados Unidos. No centro das atenções do debate público a chamada imunidade legal ou sistema de irresponsabilidade civil [2] por conteúdo ilícito, bem como pela opção de bloqueio caso a plataforma o considere ilegal unilateralmente, ambos previstos na Seção 230 do Communications Decency Act [3].
Em linhas gerais, no primeiro [4], o pai de Nohemi González, estudante norte-americana morta nos atentados terroristas de Paris em 2015, demandou contra o provedor de aplicações afirmando que o ranqueamento de vídeos no YouTube promoveria conteúdos que levaram à radicalização de jihadistas e, consequentemente, à morte de sua filha. Assim, o YouTube não agiria somente como uma plataforma isenta para o conteúdo de terceiros, mas como um publisher, uma vez que lucraria diretamente através do conteúdo sugerido e indiretamente através da publicidade dirigida aos usuários com o conteúdo terrorista, o que agrava a posição da plataforma, já que em 2016 foi alterada a lei antiterrorismo para responsabilizar quem divulga conteúdo considerado terrorista.
A atual administração federal estadunidense concorda com a demandante, asseverando que a regra legal que concede imunidade aos provedores pelo conteúdo inserido por terceiros hoje não estaria guarnecida pela imunidade regra da Seção 230, especialmente com o avanço dos sistemas de recomendação dirigidos por algoritmos. Igualmente, também se destaca o argumento de que a interpretação dada pelas cortes ao dispositivo seria excessivamente extensiva, muito porque datado de 1996, quando os modelos de negócios das plataformas e a própria tecnologia existente era menos baseada em conteúdo próprio e não na criação de meios mais eficazes para que os usuários disponibilizassem conteúdo [5].
O Google assevera em sua defesa que sua “derrota pode arruinar a Internet”. Igualmente, que o julgamento contrário a seus interesses teria “efeitos devastadores” fazendo com que a Internet volte a ser um “campo minado para litígios”. Essencialmente, o argumento central é o de que tornar o provedor responsável poderá causar uma alta significativa nas retiradas de conteúdos, levando a um ambiente onde haverá por parte dos provedores alto risco de censura e, portanto, violação da liberdade de expressão [6].
Já no caso Taamneh [7], trata-se de demanda pela família nos EUA de um cidadão da Jordânia morto em atentados terroristas de uma boate de Istambul em 2016 em face do Twitter. Em foco a suposta responsabilidade civil de “qualquer pessoa que contribua ou incite atos de terrorismo” prevista especificamente no Justice Against Sponsors of Terrorism Act de 2016 [8].
O Twitter vai em linha semelhante à das demais plataformas. Essencialmente, é de se destacar nessa linha de defesa que o provedor procura descaracterizar o vínculo direto entre o ataque de Istambul e a morte do familiar dos demandantes e a conduta da plataforma de permitir que conteúdo de incentivo aos grupos jihadistas circule. Igualmente, que a seção 230 não impõe dever de retirar o conteúdo, mas isenta de responsabilidade o “bom samaritano” que de boa-fé bloqueie conteúdo que considere ilícito.
A intersecção entre a imunidade dos provedores e a questão do terrorismo, com legislação especial e toda a carga histórica que envolve o tema nos EUA torna o assunto ainda mais delicado e complexo.
Jeff Kosseff destaca em seu 26 palavras que moldaram a Internet (a primeira parte da Seção 230 tem exatas 26 palavras) que, mesmo assim, as cortes americanas tem rechaçado demandas como Taamneh em especial pela dificuldade de visualização de causalidade entre a conduta do provedor e a situação jurídica de “publisher” nos termos da lei. Entretanto, analisa particularidades da argumentação do caso Fields V. Twitter, em linhas muito semelhantes às discutidas em Taamneh, rechaçadas pela Corte Federal do 9º Circuito pela ausência de “direct link” entre a conduta do provedor e o ato terrorista em si. Contudo, o caso seria uma espécie de oportunidade pois o fundamento principal não foi a imunidade dos provedores, mas a lei especial, tendo-se levantado nas discussões que o fato de a plataforma lucrar com o conteúdo a faria uma espécie de publisher [9].
Mesmo assim, os esforços parecem ser em vão ou ao menos muito difíceis de alterarem a realidade das coisas especialmente nos EUA. Sobressai-se o fato de que os provedores têm a seu favor o que ainda popularmente é chamado de Magna Carta da Internet [10]. Há toda uma gama de precedentes judiciais e um grande coro doutrinário e mesmo da opinião pública que faz com que mesmo uma leitura evolutiva da Seção 230 capaz de trazer algum tipo de responsabilização seja quase que um tabu dentro da sistemática americana.
Mas é fato que ao menos o ambiente político tenha se alterado um pouco nos últimos anos sobre a visão pública acerca dos provedores.
As big techs estão sob os holofotes, por um lado, pelas revelações desde 2016 de intervenção nas eleições americanas pela inteligência russa, valendo-se da facilidade que há em se criar perfis falsos, dirigir demandas políticas fantasiosas e espalhar desinformação e outros conteúdos tóxicos como riscos reais à democracia. Por outro, valendo-se da isenção de responsabilidade pela retirada unilateral de conteúdo, supostamente a ensejar benefícios para o provedor, sofrem pressão pela revisão do dispositivo, especialmente considerando-se que ganharam vulto maior do que muitos (senão todos os) Estados soberanos e sua relevância como meio para praticamente a totalidade das atividades econômicas, políticas do mundo contemporâneo faz com que a imunidade inicialmente concedida para promover seu incipiente modelo de negócios em 1996, quando originalmente concebido, limite ou fira de morte a liberdade de expressão.
Este último discurso é frequentemente levantado pelos que financiam, propagam e lucram com estes conteúdos nocivos (desinformação, discurso de ódio, terrorismo, etc.). Nessa linha, com foco inclusive nos efeitos sociais e concorrenciais do tema, o Amicus Brief apresentado pelo Cyber Civil Rights Initiative, de autoria de Mary Anne Franks et alli.
Os “bons samaritanos” competem no mercado com uma mão amarrada atrás das costas, uma vez que permitem que operadores inescrupulosos — sem medo de responsabilidade — arrebatem a lucrativa receita publicitária gerada pelo conteúdo nocivo que os “bons samaritanos filtram. Essa superimunidade radical cria um risco moral, incentivando os provedores de conteúdo a agir de forma imprudente em busca do lucro, sem medo de responsabilidade” [11].
Nos EUA, enfatiza-se que uma mudança efetiva deveria vir do campo político, especialmente preconizando-se que o caminho correto seria uma mudança legislativa e o do controle de constitucionalidade (judicial review) [12]. Já no Brasil, ao menos por enquanto, é mais ou menos consolidado na cultura jurídica que o STF pode lançar mão de técnicas de interpretação diversas da declaração de inconstitucionalidade ou não do análogo artigo 19 do Marco Civil da Internet. Interpretação conforme a Constituição, declaração de inconstitucionalidade sem redução do texto e tantas outras poderiam moldar o dispositivo às compreensões de que não é possível permitir que milicias digitais ameacem a democracia, a saúde pública e outros valores constitucionais fundamentais.
Solução que pode se somar à recente tomada de consciência sobre o tema, como na louvável iniciativa de estabelecimento de um grupo de trabalho junto ao Ministério dos Direitos Humanos para fins de construção de uma regulação das redes sociais capaz de responder aos desafios da Internet atua, com soluções que vão desde a desmonetização, autorregulação regulada e tantas outras inspiradas em outras regulações que não a norte-americana, que é vital na compreensão do desenvolvimento da rede, mas é marcada pelo excepcionalismo de uma ordem jurídica que cultua a liberdade de expressão como liberdade individual tendente à falta de limites.
Como exemplos dessa inspiração, a legislação alemã (Netzdg) de 2017 ou o recente Digital Services Act europeu. Mas para cada um deles não falta quem diga até hoje que “A Internet vai acabar”.
[1] WASHINGTON POST. BARNES Robert; VYNCK, Gerrit de; LIMA, Cristiano; OREMUS, Will; WANG, Amy B. Supreme Court considers if Google is liable for recommending ISIS videos. Updated February 21, 2023 at 3:06 p.m..Published February 21, 2023 at 9:00 a.m. EST. Disponível em: https://www.washingtonpost.com/technology/2023/02/21/gonzalez-v-google-section-230-supreme-court/. Acesso em 07. Mar. 2023.; BLOOMBERG LAW. Law Professor Lands High Court Tech Cases Due to Conflict Rules. Kimberly Strawbridge Robinson. Feb. 17, 2023, 6:45 AM. Disponível em: https://news.bloomberglaw.com/us-law-week/law-professor-lands-high-court-tech-cases-due-to-conflict-rules. Acesso em 07. Mar. 2023.CNN. Takeaways from the Supreme Court’s hearing on Twitter’s liability for terrorist use of its platform. Brian Fung. By Brian Fung and Tierney Sneed, CNN. Updated 2:51 PM EST, Wed February 22, 2023Disponível em: https://edition.cnn.com/2023/02/22/tech/supreme-court-twitter-v-taamneh/index.html. Acesso em: 07. Mar. 2023. CNBC. TECH. Lauren Feiner. Supreme Court considers whether Twitter can be held liable for failing to remove terrorist content PUBLISHED WED, FEB 22 20233:37 PM ESTUPDATED WED, FEB 22 20234:56 PM ESTDisponível em: https://www.cnbc.com/2023/02/22/supreme-court-hears-twitter-v-taamneh-case-about-terrorist-content.html. Acesso em: 07. Mar. 2023.
No Brasil, V. O GLOBO. Julgamento da Suprema Corte dos EUA deve ditar rumos de big techs no Brasil e no mundo. Entenda por quê EUA discutem até junho responsabilidade de plataformas como Google, Facebook e Twitter sobre conteúdo de ódio e terrorismo. No Brasil, Marco Civil da internet pode ser revisto. Por Glauce Cavalcanti — Rio. 10/03/2023 04h30. Disponível em: https://oglobo.globo.com/economia/tecnologia/noticia/2023/03/julgamento-da-suprema-corte-dos-eua-deve-ditar-rumos-de-big-techs-no-brasil-e-no-mundo-entenda-por-que.ghtml. Acesso em10 mar. 2023.
PODER 360. EUA julgam se big techs são culpadas por sugestões de algoritmos Suprema Corte trata do caso de jovem morta em ataque em Paris; acusação diz que extremistas foram influenciados por algoritmos do YouTube. Suprema Corte dos Estados Unidos julgam os casos Gonzalez vs. Google e Twitter vs. Taamneh que podem mudar a internet norte-americana. 22.set.2014 Jessica Cardoso 1.mar.2023 (quarta-feira) – 20h18… Disponível em: https://www.poder360.com.br/tecnologia/eua-julgam-se-big-techs-sao-culpadas-por-sugestoes-de-algoritmos/. Acesso em: 07. Mar. 2023.
[3] (1)Treatment of publisher or speaker. No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider. (2) Civil liability. No provider or user of an interactive computer service shall be held liable on account of (A)any action voluntarily taken in good faith to restrict access to or availability of material that the provider or user considers to be obscene, lewd, lascivious, filthy, excessively violent, harassing, or otherwise objectionable, whether or not such material is constitutionally protected; or (B)any action taken to enable or make available to information content providers or others the technical means to restrict access to material described in paragraph (1).
Guilherme Magalhães Martins é procurador de Justiça do Ministério Público do Estado do Rio de Janeiro, professor associado de Direito Civil da UFRJ, professor permanente do doutorado em Direito, Instituições e Negócios da UFF, pós-doutor em Direito Comercial pela USP, doutor e mestre em Direito Civil pela UERJ e vice-presidente do Instituto Brasilcon.
João Victor Rozatti Longhi é defensor público no Estado do Paraná e doutor em Direito Público pela Faculdade de Direito da USP.