Gilmar Mendes: Liberdade de expressão, redes sociais e democracia

Entre os dias 21 e 23 de fevereiro deste ano, a Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) promoveu a conferência internacional “Internet for Trust”, voltada a discutir as Guidelines globais para a regulação de plataformas digitais, com vistas a preservar a liberdade de expressão e o acesso à informação nos ambientes virtuais. A iniciativa da Unesco reflete a centralidade do tema na agenda pública internacional.

Nos últimos anos, diversos governos democráticos têm apoiado iniciativas regulatórias que buscam lidar com os graves danos sociais decorrentes da difusão de conteúdos maliciosos em redes sociais e em mídias digitais em geral. Há autores que afirmam estarmos diante de “uma nova geração de abordagens legais e regulatórias baseadas em estruturas de responsabilidade que criam incentivos para que as plataformas estabeleçam processos efetivos de identificação e de remoção de conteúdos danosos” (tradução livre) [1]. Os exemplos mais notáveis desse movimento são a Netzwerkdurchsetzungsgesetz alemã de 2017, o Digital Services Act (DSA) aprovado pelo Parlamento Europeu em 2022, e a proposta de Online Safety Bill que está em discussão no Reino Unido.

No Brasil, as discussões sobre regulação de plataformas adquiriram um renovado fôlego em razão dos espantosos episódios do dia 8 de janeiro de 2023. A brutalidade das cenas de ataques às instituições democráticas foi antecedida da circulação de conteúdos online produzidos por grupos extremistas nos dias que antecederam os atos de massacre e de terrorismo. Há uma grande conscientização em curso de que os episódios cruéis vivenciados no início do ano foram orquestrados virtualmente, sem que os intermediários que participam da difusão desses conteúdos tivessem adotados medidas mínimas para lidar com os riscos sistêmicos gerados por publicações odiosas.

Diante do alinhamento das conjunturas internacionais e nacional, parece estar emergindo um consenso no Brasil de que o papel exercido pelos intermediários online na formação do discurso público requer uma política regulatória democrática que aprimore a responsabilidade dos intermediários na moderação de conteúdos online danosos. Na construção de um novo modelo regulatório, é inevitável aprofundar o diálogo com as experiências estrangeiras, em especial com os desenvolvimentos recentes que sucederam a adoção do DSA na União Europeia.

Com base na literatura acadêmica recente sobre o tema, este breve artigo explora a existência de dois paradigmas de regulação da liberdade de expressão online que estão hoje em tensão no debate público internacional. Ressalto que esses paradigmas são arquetípicos, logo representam simplificações da realidade aqui consideradas para fins didáticos.

O primeiro é o paradigma da proteção da neutralidade de conteúdo online (content neutrality), o qual é comumente associado à tradição de direitos negativos de liberdade de expressão. Esse primeiro paradigma foi crucial para o desenvolvimento da web 2.0 e para garantir a liberdade de expressão na internet nas últimas duas décadas. Ele se estrutura a partir de regimes jurídicos de responsabilidade fraca dos intermediários pelo conteúdo de terceiros. Nesse paradigma, a moderação do conteúdo on-line acaba sendo majoritariamente desempenhada por mecanismos de autorregulação das próprias plataformas. Em linhas gerais, o artigo 19 do Marco Civil da Internet corresponde a essa concepção de neutralidade do conteúdo, ainda que com algumas exceções mais duras à responsabilidade pela veiculação de conteúdos específicos, que violem direitos do autor ou que envolvam imagens íntimas.

O segundo paradigma, que é de desenvolvimento mais recente, aponta para a regulação procedimental do discurso online. Esse paradigma nasce da presunção de que a liberdade de expressão na internet requer não apenas uma proteção contra a intervenção do Estado, mas a existência de condições mínimas de proteção da condição democrática de espaços virtuais, em benefício social da pluralidade. Tal paradigma está sendo aprofundado nas legislações europeias recentes. Ele se baseia na criação de obrigações positivas para a redes sociais, sobretudo para aprimorar a transparência nas decisões de moderação de conteúdo e na assunção de compromissos de maior cautela no tratamento de manifestações ilícitas na internet.

O contraste entre esses dois paradigmas de regulação é capaz de expor as oportunidades e desafios de um novo regime legal para as plataformas digitais no Brasil. Como resta claro, vivemos um ponto de inflexão no debate sobre liberdade de expressão no cenário nacional que indubitavelmente necessita de novos passos por parte dos Poderes Executivo, Legislativo e Judiciário.

Proteção negativa da liberdade de expressão e regimes de autorregulação das plataformas

O primeiro paradigma de regulação das mídias sociais está relacionado à abordagem tradicional de irresponsabilidade do intermediário pelo conteúdo de terceiros. No contexto norte-americano, por exemplo, a Suprema Corte tradicionalmente tem adotado uma postura de exaltação do direito de liberdade de expressão consagrado na Primeira Emenda, estendendo a noção libertária de “free marketplace of ideas” como uma metáfora principiológica adequada para o tratamento da responsabilidade dos provedores de conteúdo no meio digital [2].

Após reformas na legislação, a redação atual do § 230 do Communication Decency Act (CDA) passou a garantir mais explicitamente uma imunidade quase que absoluta aos intermediários on-line pela veiculação de conteúdo de terceiros, excepcionada somente nas situações de violação de direitos autorais. Ainda assim, porém, a Suprema Corte norte-americana tem se deparado com casos em que os limites da imunidade prevista na legislação são colocados à prova.

Essa perspectiva de irresponsabilidade pelo conteúdo também era prevalecente no Direito Comunitário Europeu até 2022. Essa abordagem era adotada pela Diretiva de Comércio Eletrônico (ECD) — que também estabelecia um regime geral de privilégios de segurança para os provedores de conteúdo — e por decisões da Corte Europeia de Justiça. A posição prevalente no cenário europeu, tanto na doutrina quanto na jurisprudência, era de que o mero condutor da informação não poderia ser qualificado como um partícipe da atividade ilegal perpetrada pelo usuário.

A opção por regulações estatais que atenuam a responsabilidade dos intermediários, por sua vez, ampliou consideravelmente o papel que a função de moderação de conteúdo realizada pelas próprias plataformas. Em vez de figurarem como agentes meramente passivos na intermediação de conteúdos produzidos por terceiros, empresas como Facebook, Google e Amazon são hoje capazes de interferir no fluxo de informações, por meio de filtros, bloqueios ou reprodução em massa de conteúdos produzidos pelos seus usuários. Essa interferência no fluxo informacional também é caracterizada pelo uso intensivo de algoritmos e ferramentas de Big Data que permitem às plataformas manipular e controlar a forma de propagação dos conteúdos privados de forma pouco transparente [3].

Todas essas particularidades da atuação dos provedores de conteúdo denotam que tais agentes assumem hoje uma postura “não neutra” no tratamento da comunicação em suas redes [4]. As decisões privadas tomadas por essas empresas produzem impactos diretos nas possibilidades de realização de liberdades públicas. Tal realidade enseja duas implicações relevantes para a proteção de direitos relacionados à liberdade de expressão. Em primeiro lugar, verifica-se que os atores privados da internet se tornam responsáveis por mediar situações de conflitos entre direitos fundamentais básicos, muitas vezes antes da própria autoridade estatal [5]. De fato, as plataformas digitais exercem uma função normativa importante ao estabelecer regulamentos e termos de uso dos seus serviços. Embora representem simples contratos entre as partes, em muitos casos, esses documentos adotam jargões típicos de textos constitucionais que projetam, na relação privada, direitos como o de livre acesso e compartilhamento de informações e o direito de estabelecer controle de privacidade sobre os seus dados [6].

Em segundo lugar, além de estabelecer as regras do jogo no tratamento de dados e de conteúdo dos usuários, os intermediadores também assumem a função de resolver conflitos entre os participantes da rede ou entre esses e a própria plataforma. Ao fazer cumprir os regulamentos e termos de uso pactuados, as empresas se engajam em uma verdadeira função adjudicatória de direitos. Nesse sentido, as plataformas digitais funcionam como verdadeiros tribunais, considerando que elas têm o poder de decidir pela exclusão ou manutenção de conteúdo ou mesmo pela permanência ou retirada de participantes da rede, sem a necessidade de qualquer interferência de um órgão administrativo ou judicial [7].

Devido à centralidade que o poder privado das plataformas adquiriu na moderação de conteúdo online, muitas empresas passaram a incorporar discursos constitucionais na regulamentação privada do funcionamento dos seus serviços. Todavia, essa articulação de estatutos internos acaba por ser insuficiente para a proteção integral dos direitos dos usuários relacionados à liberdade de expressão. Em primeiro lugar, há uma compreensão cada vez maior de que a participação nas mídias sociais se afigura como instrumento essencial para o exercício de liberdades individuais. Esse diagnóstico coloca em debate até que ponto as redes sociais são espaços verdadeiramente privados ou se esses serviços, na realidade, mais se aproximariam a áreas públicas de circulação de conteúdo. Em segundo lugar — e esse parece ser um ponto crucial — as preocupações com as restrições de liberdades individuais nas redes sociais estão sendo agora debatidas em um contexto mais amplo de governança das plataformas [8]. Reconhece-se aqui que o poder dos controladores de rede se exerce não apenas no eventual acionamento arbitrário das cláusulas contratuais privadas, mas, de modo mais vigoroso, no exercício pouco transparente dos seus interesses econômicos que informam os atos de moderação e policiamento dos seus usuários [9].

Todas essas deficiências do paradigma de neutralidade do conteúdo colocam dúvidas sobre a suficiência do sistema jurídico brasileiro.

No Brasil, o sistema jurídico de responsabilidade dos intermediários de conteúdos online se estruturou em torno do artigo 19 do Marco Civil da Internet. Esse dispositivo foi fruto de um amplo debate legislativo com participação ativa de múltiplos stakeholders e de representantes da sociedade civil. Na redação atual, o dispositivo prevê que, em regra, o provedor de aplicações de internet “somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para tornar indisponível o conteúdo apontado como infringente”. Ainda que o artigo 19 do MCI não se amolde perfeitamente a um paradigma de neutralidade de conteúdo, em regra, ele prescreve uma lógica de irresponsabilidade ou de responsabilidade mitigada das plataformas pelo conteúdo de terceiros.

É possível afirmar que a doutrina nacional [10] tem interpretado que o artigo 19 do MCI representou uma opção do legislador pelo modelo de responsabilização judicial, com o intuito de preservar a liberdade de expressão na internet, ainda que em detrimento do controle absoluto do usuário sobre a informação. Essa escolha, porém, não significa necessariamente que o provedor esteja impedido de realizar a remoção do conteúdo na inexistência de ordem judicial.

Caso, a partir de uma notificação extrajudicial de um usuário, a empresa constate que está diante de uma violação dos termos de uso da rede social, por exemplo, a empresa poderá proceder a retirada do conteúdo, ainda que sem ordem judicial. Assim, na realidade, o artigo 19 do MCI não prevê que a única hipótese de remoção de conteúdo consiste na existência de ordem judicial, mas, ao contrário, explicita que sempre que tal ordem existir, o conteúdo deve ser removido pela plataforma.

Diante desse desenho institucional adotado pelo MCI, é legítimo afirmar que boa parte do sistema de moderação de conteúdo online no Brasil está concentrado no exercício de estratégias de autorregulação por parte das plataformas. Isso porque são esses próprios agentes privados que, a partir da ordenação das regras das suas comunidades, implementam primariamente a atividade de moderação de conteúdo. A suficiência da autorregulação desregulada suscita, porém, controvérsias, diante da veiculação e impulsionamento massivo de conteúdos de terceiros potencialmente ilícitos.

Todos esses fatores levam a crer que, embora o artigo 19 do MCI tenha sido de inegável importância para a construção de uma internet plural e aberta no país, hoje o dispositivo se mostra ultrapassado. A corroborar esse diagnóstico, diversas iniciativas estrangeiras têm construído regimes de responsabilidade mais sofisticados para a operação de plataformas digitais. É importante buscar um meio do caminho entre um regime de liberdade total das plataformas e um regime de controle estatal completo do conteúdo. Essa tem sido, até aqui, a tentativa de jurisdições democráticas estrangeiras.

Regulação processual das plataformas

O segundo paradigma regulatório que merece nossa consideração corresponde à regulação procedimental das redes sociais. Nos últimos anos, diversas opções legislativas têm sido imaginadas para o combate de determinados comportamentos ilícitos praticados nos ambientes virtuais — tais como a difusão de discursos de ódio, de manifestações difamatórias ou ainda de notícias falsas (fake news). Uma nova onda de leis e regulações de plataformas estrangeiras têm buscado impor balizas para a moderação de conteúdo. Essas novas legislações, da qual são exemplos a NetzDG alemã e o DSA da União Europeia, adotam estratégias de regulação bastante sofisticadas.

Essas leis não definem previamente o que é um conteúdo ilícito, justamente para não incidirem no risco de comprometerem a liberdade de expressão, gerando um efeito de silenciamento nas redes sociais. Elas também não retiram das plataformas a função primordial de moderar o conteúdo. Por outro lado, elas elegem estratégias regulatórias processuais (process-based regulations) que colocam sob os ombros das plataformas a responsabilidade de desenhar os seus serviços de forma mais segura para impedir a circulação e impulsionamento de conteúdos que podem comprometer direitos fundamentais e as condições democráticas da rede. Assim, o foco dessas novas legislações não incide propriamente sobre a demarcação material do conteúdo. Elas dispõem apenas sobre o “design dos serviços, sobre seus modelos de negócios e sobre a forma como essas plataformas gerenciam riscos e tratam a exposição dos usuários aos riscos da difusão de conteúdos danosos” (tradução livre) [11].

Essa estratégia de focar no procedimento e não no aspecto material do conteúdo online torna as novas leis de regulação de plataformas profundamente distintas das antigas normas que atribuem responsabilidade aos veículos de mídias tradicionais, como rádio e televisão. Devido ao fato de as plataformas funcionarem a partir de processos contínuos de submissão e revisão de conteúdos e devido ao alcance transnacional dos seus modelos de negócios, é muito difícil reproduzir, no mundo das plataformas, o tradicional binômio que separa “conteúdo” e “transmissão”. Na realidade, o que essas novas regulações mostram é que é preciso focar na arquitetura tecnológica das plataformas, principalmente nas decisões que são tomadas sobre como tratar reclamações feitas por usuários e na publicização e transparência de seus critérios.

Nas discussões sobre o tema no Reino Unido, por exemplo, tem se desenvolvido o conceito de ““dever de cuidado” como um novo centro de gravidade do regime jurídico. O conjunto de regras que compõem tal dever de cuidado não requerem uma absoluta proteção contra todo e qualquer conteúdo ilegal online. Avaliar o cumprimento desse dever, o que se busca investigar é se a plataforma adota rotineiramente práticas razoáveis para impedir o surgimento e o espraiamento de riscos sistêmicos à ordem democrática.

De forma semelhante, o DSA da União Europeia, que entrará em vigor em 2024, exige que as plataformas realizem a retirada de conteúdos ilícitos tão logo tomem conhecimento e adotem medidas de transparência para deixar claro como funciona a sua tomada de decisões na moderação de conteúdo. Além disso, as plataformas têm a obrigação de “agir de forma diligente, objetiva e proporcional na aplicação e cumprimento das restrições” estabelecidas nos termos e condições de uso dos seus serviços. O DSA exige ainda que as plataformas implementem uma estratégia de mitigação de risco, que pode incluir adaptações nos termos de serviço das plataformas, bem como processos de moderação de conteúdo em si.

É importante deixar clara a flexibilidade que o modelo do DSA traz em uma lógica de diálogo regulatório com o setor. O seu artigo 7º prescreve, por exemplo, que os prestadores de serviços podem manter a imunidade pelo conteúdo de terceiro quando, voluntariamente e de boa fé, conduzem investigações próprias destinadas a identificar e retirar conteúdos ilegais.

Esses são apenas alguns exemplos que mostram que leis de responsabilidade mais rígidas e modernas não precisam necessariamente se arvorar na exauriente regulação da liberdade de expressão na internet, tarefa certamente inglória para qualquer legislador. No Brasil, é fundamental que um novo regime jurídico aumente a confiabilidade e a previsibilidade na moderação de conteúdo, a partir de garantias processuais e de mecanismos de resolução de disputa mais transparentes nas plataformas. A opção de focar mais no processo e menos na substância do conteúdo parece de fato ser um caminho importante de debate.

Adicionalmente, não podemos fugir do fato de que a demarcação da ilicitude de um conteúdo online possui íntima relação com a própria tutela penal já existente. A tipificação dos crimes contra o Estado Democrático de Direito, por exemplo, é exterior e precede qualquer iniciativa regulatória.

A contraposição dos dois paradigmas de regulação de plataformas mostra-nos que o regime jurídico do Marco Civil da Internet, embora tenha sido inegavelmente importante para a preservação da liberdade de expressão online no Brasil, precisa ser revisto. É inegável que a construção de um novo regime regulatório requer um amplo debate público, com a participação de todos os stakeholders, da sociedade civil e da iniciativa privada. Todavia, parece-me que é chegado o momento de colocar sob ressalvas as posições daqueles que não estão abertos a discutir novas formas de responsabilidade para as plataformas digitais. As condições de exercício da democracia on-line parecem hoje ser vivamente dependentes da criação de deveres positivos, ainda que procedimentais, para a moderação de conteúdo. Deixar tarefa tão central para a realização do direito fundamental de liberdade de expressão quase exclusivamente sob uma atuação privada opaca é que parece ser o caminho mais arriscado.

NOTAS

1 MOORE, Martin e TAMBINI, Damian. Regulating Big Tech: Policy Responses to Digital Dominance. Oxford: Oxford University Press, 2022, p. 5.

2 Para uma discussão mais aprofundada, cf. POLLICINO, Oreste. Judicial protection of fundamental rights in the transition from the world of atoms to the word of bits: The case of freedom of speech. European Law Journal, v. 25, n. 2, p. 155–168, 2019, p. 163–164 e LAND, Molly K. A human rights perspective on US constitutional protection of the internet. In:The Internet and Constitutional.

3 BALKIN, Jack M. Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation. University of California, Davis, p. 1149–1210, 2018.

4 BASSINI, Marco. Fundamental rights and private enforcement in the digital age. European Law Journal, v. 25, n. 2, p. 182–197, 2019, p. 187 e MORELLI, Alessandro; POLLICINO, Oreste. Metaphors, Judicial Frames and Fundamental Rights in Cyberspace. American Journal of Comparative Law, v. 2, p. 1–26, 2020, p. 26.

5 PADOVANI, Claudia; SANTANIELLO, Mauro. Digital constitutionalism: Fundamental rights and power limitation in the Internet eco-system. International Communication Gazette, v. 80, n. 4, p. 295–301, 2018, p. 4. (“private operators have been acquiring law-making and law enforcement powers, defining the boundaries of some fundamental rights”).

6 CELESTE, Edoardo. Terms of service and bills of rights: new mechanisms of constitutionalisation in the social media environment? International Review of Law, Computers and Technology, v. 33, n. 2, p. 122–138, 2018 (ao analisar a chamada Declaração de Direitos e Responsabilidade do Facebook, o autor diagnostica que essa plataforma adota terminologias típicas dos direitos constitucionais nos seus contratos privados).

7 DENARDIS, Laura. The Global War For Internet Governance. New Haven and London: Yale University Press, 2014, p. 157-167. (“private intermediaries have increasingly become the arbiters of online expressive liberty”) e BLOCH-WEHBA, Hannah. Global Platform Governance: Private Power in the Shadow of the State. SMU Law Review, n. February, p. 27–72, 2019, p. 27. (“platforms are engaged in both rulemaking and adjudication”).

8 Nesse sentido, cf. PASQUALE, F. Platform Neutrality: Enhancing Freedom of Expression in Spheres of Private Power. Theoretical Inquiries in Law, v. 17, n. 1, p. 487–513, 2016; LYNSKEY, O. Regulating “Platform Power”. LSE Legal Studies Working Paper No. 1/, n. 1, p. 31, 2017 e GILLESPIE, Tarleton. Content moderation, AI , and the question of scale. Big Data & Society, v. 1, n. 1, p. 1–5, 2020.

9 GILLESPIE, T. Regulation of and by Platforms. In: The Sage Handbook Of Social Media. London: Sage Reference, 2018. p. 254– 278. p. 255.

10 Por todos, cf. SOUZA, C. A. P. de. Responsabilidade civil dos provedores de acesso e de aplicações de internet: evolução jurisprudencial e os impactos da Lei 12.695/2014 (Marco Civil da Internet). In: Marco Civil da Internet. São Paulo: Atlas, 2014. p. 791– 817. p. 810.

11 TAMBINI, Damian. Reconceptualizing Media Freedom. in: Regulating Big Tech: Policy Responses to Digital Dominance, Oxford: Oxford University Press, 2022, p. 311.

Gilmar Mendes é professor do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), doutor em Direito pela Universidade de Münster (Alemanha) e ministro do STF.

Consultor Júridico

Facebook
Twitter
LinkedIn
plugins premium WordPress

Entraremos em Contato

Deixe seu seu assunto para explicar melhor