A internet revolucionou o mundo da comunicação interpessoal e social, expandiu exponencialmente o acesso à informação e criou uma esfera pública onde qualquer um pode expressar ideias. Antes dela, a participação no debate público dependia da imprensa profissional, que investigava fatos, seguia padrões da ética jornalística e era responsável por danos se publicasse informações falsas.
Havia controle editorial e responsabilidade civil em relação à qualidade e à veracidade do que era publicado. Isso não significa que fosse um mundo perfeito. O número de meios de comunicação era e continua sendo limitado e nem sempre plural, empresas jornalísticas têm seus próprios interesses e nem todas distinguem com o cuidado necessário fato de opinião. Ainda assim, havia um grau mais refinado de controle sobre o que se tornava público.
Houve uma reviravolta nesse universo. A internet criou comunidades online para divulgação de conteúdo gerado pelo usuário, publicado sem controle editorial e sem custo. Tais inovações amplificaram a participação no debate público, diversificaram as fontes de informação e aumentaram o acesso a elas. Tudo isso representou uma poderosa contribuição para o dinamismo político e a resistência ao autoritarismo e estimulou a criatividade, o conhecimento científico e as trocas comerciais. No entanto, o surgimento das redes sociais também levou ao aumento da disseminação de discurso abusivo e criminoso.
Os algoritmos
Somando-se a esse cenário, a capacidade de participar e de ser ouvido no discurso público online é atualmente definida pelos algoritmos de moderação de conteúdo das grandes empresas de tecnologia. As plataformas digitais dependem de algoritmos para duas funções diferentes: recomendar e moderar conteúdo. Primeiramente, envolve a curadoria do conteúdo disponível, de modo a proporcionar a cada usuário uma experiência personalizada e aumentar o tempo gasto online. A transição de um mundo de escassez de informação para um mundo de abundância gerou uma concorrência acirrada pela atenção do usuário — esta, sim, o recurso escasso na Era Digital.
As plataformas também moderam conteúdo, a fim de verificar se violam os padrões da comunidade. O crescimento das redes sociais e seu uso por pessoas ao redor do mundo permitiram a propagação da ignorância, mentiras e a prática de crimes de diferentes naturezas, ameaçando a estabilidade até mesmo de democracias duradouras. Nesse cenário, tornou-se inevitável a criação e imposição de termos e condições que definam os valores e normas de cada plataforma e pautem a moderação do discurso. Mas a quantidade potencialmente infinita de conteúdo publicado online significa que esse controle não pode ser exercido exclusivamente por humanos.
Algoritmos de moderação de conteúdo otimizam a varredura do material publicado online para identificar violações dos padrões da comunidade ou termos de serviço em escala e aplicar medidas que variam desde remoção até redução/amplificação do alcance, bem como inclusão de esclarecimentos ou referências a informações alternativas.
As plataformas frequentemente dependem de dois modelos algorítmicos para moderação de conteúdo. O primeiro é o modelo de detecção de reprodução, que usa o hashing, uma tecnologia que atribui um ID único a textos, imagens e vídeos, para identificar reproduções idênticas de conteúdo previamente rotulado como indesejado. O segundo sistema, o modelo preditivo, usa técnicas de machine learning para identificar potenciais ilegalidades em conteúdo novo e não classificado. Embora úteis, ambos os modelos têm limitações.
O modelo de detecção de reprodução é ineficiente para conteúdos com discurso de ódio e desinformação, em que o potencial de novas publicações é praticamente ilimitado. O modelo preditivo, por sua vez, ainda é limitado em sua capacidade de lidar com situações às quais não foi exposto durante o treinamento.
Apesar dessas limitações, os algoritmos continuarão a ser um recurso crucial no monitoramento de conteúdo. Somente nos últimos dois meses de 2020, o Facebook aplicou alguma medida de moderação de conteúdo a 105 milhões de publicações, e o Instagram, a 35 milhões. O YouTube tem 500 horas de vídeo carregadas por minuto e já removeu mais de 9,3 milhões de deles. No primeiro semestre de 2020, o Twitter — agora X — analisou reclamações relacionadas a 12,4 milhões de contas em potencial violação de suas regras e removeu 1,9 milhões. Portanto, utilizar apenas o monitoramento humano é impossível.
Por isso, é preciso conceber um modelo de autorregulação regulada, definido por meio de padrões fixados pelo Estado, mas com flexibilidade das plataformas em materializá-los e implementá-los. O cumprimento das regras deve ser supervisionado por um comitê independente, com minoria de representantes do governo e maioria de representantes do setor empresarial, academia, entidades de tecnologia, usuários e sociedade civil.
O quadro regulatório deve visar à redução da assimetria de informações entre as plataformas e os usuários, salvaguardar o direito fundamental à liberdade de expressão e proteger e fortalecer a democracia. As limitações técnicas atuais dos algoritmos de moderação de conteúdo e a discordância substancial sobre o que deve ser considerado ilegal ou prejudicial trazem uma implicação inevitável: o objetivo da regulamentação deve ser encontrar um modelo que otimize o equilíbrio entre os direitos dos usuários e das plataformas, reconhecendo que sempre haverá casos em que o consenso é inatingível. O foco da regulamentação deve ser o desenvolvimento de procedimentos adequados para a moderação de conteúdo, capazes de minimizar erros e legitimar decisões, mesmo quando alguém discorda do resultado substantivo.
Luna van Brussel Barroso é aluna do LL.M da Faculdade de Direito de Yale, autora de “Liberdade de Expressão e Democracia na Era Digital: O impacto das mídias sociais no mundo contemporâneo”, doutoranda em Direito Constitucional na USP (Universidade de São Paulo), mestre em Direito Público pela Uerj (Universidade do Estado do Rio de Janeiro) e bacharel em Direito pela FGV (Fundação Getúlio Vargas) do Rio de Janeiro.