Liberdade de expressão, redes sociais e Democracia*

5 de abril de 2023

Gilmar Ferreira Mendes Membro do Conselho Editorial e Ministro do STF

Compartilhe:

Entre os dias 21 e 23 de fevereiro do corrente ano, a Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) promoveu a conferência internacional “Internet for trust”, voltada a discutir a guidelines globais para a regulação de plataformas digitais, com vistas a preservar a liberdade de expressão e o acesso à informação nos ambientes virtuais. A iniciativa da Unesco reflete a centralidade do tema na agenda pública internacional. Nos últimos anos, diversos governos democráticos têm apoiado iniciativas regulatórias que buscam lidar com os graves danos sociais decorrentes da difusão de conteúdos maliciosos em redes sociais e em mídias digitais em geral.

Há autores que afirmam estarmos diante de “uma nova geração de abordagens legais e regulatórias baseadas em estruturais de responsabilidade que criam incentivos para que as plataformas estabeleçam processos efetivos de identificação e de remoção de conteúdos danosos” (tradução livre). Os exemplos mais notáveis desse movimento são a Netzwerkdurchsetzungsgesetz (NetzDG) alemã de 2017, o Digital Services Act (DSA) aprovado pelo Parlamento Europeu em 2022, e a proposta de Online Safety Bill que está em discussão no Reino Unido.

No Brasil, as discussões sobre regulação de plataformas adquiriam renovado fôlego em razão dos espantosos episódios do dia 8 de janeiro de 2023. A brutalidade das cenas de ataques às instituições democráticas foi antecedida da circulação de conteúdos on-line produzidos por grupos extremistas nos dias que antecederam os atos de massacre e de terrorismo. Há uma grande conscientização em curso de que os episódios cruéis vivenciados no início do ano foram orquestrados virtualmente, sem que os intermediários que participam da difusão desses conteúdos tivessem adotados medidas mínimas para lidar com os ricos sistêmicos gerados por publicações odiosas.

Diante do alinhamento das conjunturas internacionais e nacional, parece estar emergindo um consenso no Brasil de que o papel exercido pelos intermediários on-line na formação do discurso público requer uma política regulatória democrática, que aprimore a sua responsabilidade na moderação de conteúdos on-line danosos. Na construção de um novo modelo regulatório, é inevitável aprofundar o diálogo com as experiências estrangeiras, em especial com os desenvolvimentos recentes que sucederam a adoção do DSA na União Europeia.

Com base na literatura acadêmica recente sobre o tema, nesta breve exposição, pretendo explicar a existência de dois paradigmas de regulação da liberdade de expressão on-line que estão hoje em tensão no debate público internacional. O primeiro é o paradigma da proteção da neutralidade de conteúdo on-line (content neutrality), o qual é comumente associado à tradição de direitos negativos de liberdade de expressão. Esse primeiro paradigma que é tradicionalmente adotado se estrutura a partir de regimes jurídicos de responsabilidade fraca dos intermediários pelo conteúdo de terceiros. Para além das leis estatais, a moderação do conteúdo on-line é majoritariamente desempenhada por mecanismos de autorregulação das próprias plataformas. Em linhas gerais, o art. 19 do Marco Civil da Internet (MCI) corresponde a esse paradigma de neutralidade do conteúdo.

O segundo paradigma, que é de desenvolvimento mais recente, é o paradigma de regulação procedimental do discurso on-line. Esse paradigma nasce da presunção de que a liberdade de expressão na Internet requer não apenas uma proteção contra a intervenção do Estado, mas uma intervenção estatal ativa que promova direitos fundamentais e garanta mecanismos de proteção de uma mídia democrática como um benefício social da pluralidade. Tal paradigma está sendo desenvolvido nas legislações europeias recentes. Ele se baseia na criação de obrigações positivas para a redes sociais, sobretudo voltadas a uma maior transparência nas decisões de moderação de conteúdo e na assunção de compromissos de maior cautela no tratamento de manifestações ilícitas na Internet.

O contraste entre esses dois paradigmas de regulação é capaz de expor as oportunidades e desafios da reflexão de um novo regime legal para as plataformas digitais no Brasil. Como resta claro, vivemos um ponto de inflexão no debate sobre liberdade de expressão no cenário nacional, que indubitavelmente necessita de novos passos por parte dos Poderes Executivo, Legislativo e Judiciário.

Proteção negativa da liberdade de expressão e regimes de autorregulação das plataformas

O primeiro paradigma de regulação das mídias sociais está relacionado à abordagem tradicional de irresponsabilidade do intermediário pelo conteúdo de terceiros. No contexto norte-americano, por exemplo, a Suprema Corte tradicionalmente tem adotado uma postura de exaltação do direito de liberdade de expressão consagrado na 1ª Emenda, estendendo a noção libertária de “free marketplace of ideas” como uma metáfora principiológica adequada para o tratamento da responsabilidade dos provedores de conteúdo no meio digital.

Após reformas na legislação, a redação atual do § 230 do Communication Decency Act (CDA) passou a garantir mais explicitamente uma imunidade quase que absoluta aos intermediários on-line pela veiculação de conteúdo de terceiros, excepcionada somente nas situações de violação de direitos autorais. Ainda assim, porém, a Suprem Corte norte-americana tem se deparado com casos em que os limites da imunidade prevista na legislação são colocados à prova

Essa perspectiva de irresponsabilidade pelo conteúdo também era prevalecente no Direito Comunitário europeu até 2022. Essa abordagem era adotada pela Diretiva de Comércio Eletrônico (ECD) – que também estabelecia um regime geral de privilégios de segurança para os provedores de conteúdo – e por decisões da Corte Europeia de Justiça. A posição prevalente no cenário europeu, tanto na doutrina quanto na jurisprudência, era de que o mero condutor da informação não poderia ser qualificado como um partícipe da atividade ilegal perpetrada pelo usuário.

A opção por regulações estatais que atenuam a responsabilidade dos intermediários, por sua vez, ampliou consideravelmente o papel que a função de moderação de conteúdo realizada pelas próprias plataformas. Em vez de figurarem como agentes meramente passivos na intermediação de conteúdos produzidos por terceiros, empresas como Facebook, Google e Amazon são hoje capazes de interferir no fluxo de informações, por meio de filtros, bloqueios ou reprodução em massa de conteúdos produzidos pelos seus usuários. Essa interferência no fluxo informacional também é caracterizada pelo uso intensivo de algoritmos e ferramentas de big data que permitem às plataformas manipular e controlar a forma de propagação dos conteúdos privados de forma pouco transparente.

Todas essas particularidades da atuação dos provedores de conteúdo denotam que tais agentes assumem hoje uma postura “não neutra” no tratamento da comunicação em suas redes. As decisões privadas tomadas por essas empresas produzem impactos diretos nas possibilidades de realização de liberdades públicas. Tal realidade enseja duas implicações relevantes para a proteção de direitos relacionados à liberdade de expressão. Em primeiro lugar, verifica-se que os atores privados da Internet se tornam responsáveis por mediar situações de conflitos entre direitos fundamentais básicos, muitas vezes antes da própria autoridade estatal. De fato, as plataformas digitais exercem uma função normativa importante ao estabelecer regulamentos e termos de uso dos seus serviços. Embora representem simples contratos entre as partes, em muitos casos, esses documentos adotam jargões típicos de textos constitucionais que projetam, na relação privada, direitos como o de livre acesso e compartilhamento de informações e o direito de estabelecer controle de privacidade sobre os seus dados.

Em segundo lugar, além de estabelecer as regras do jogo no tratamento de dados e de conteúdo dos usuários, os intermediadores também assumem a função de resolver conflitos entre os participantes da rede ou entre esses e a própria plataforma. Ao fazer cumprir os regulamentos e termos de uso pactuados, as empresas se engajam em uma verdadeira função adjudicatória de direitos. Nesse sentido, as plataformas digitais funcionam como verdadeiros tribunais, considerando que elas têm o poder de decidir pela exclusão ou manutenção de conteúdo ou mesmo pela permanência ou retirada de participantes da rede, sem a necessidade de qualquer interferência de um órgão administrativo ou judicial.

Devido à centralidade que o poder privado das plataformas adquiriu na moderação de conteúdo on-line, muitas empresas passaram a incorporar discursos constitucionais na regulamentação privada do funcionamento dos seus serviços. Embora desprovidos de força vinculante, os termos e condições de uso de plataformas de redes sociais passaram a representar normas estatutárias funcionando como uma espécie de “regramento da comunidade”, cuja interpretação é em geral determinante para as decisões de exclusão de conteúdos e usuários da plataforma. As cláusulas abertas das Declarações ou Diretrizes das Comunidades virtuais passaram, ao longo dos anos, a curiosamente refletir típica linguagem constitucional. As regras de redes sociais como o Facebook enunciam, por exemplo, o compromisso de garantir aos seus usuários o exercício de direitos como os de se informar, de ter controle sobre sua privacidade e de ter ferramentas práticas para compartilhar e acessar informações de forma igualitária. Essa incorporação de jargões constitucionais configurou uma clara tentativa de as próprias plataformas estabelecerem normas de coação voluntária nos espaços virtuais.

Todavia, essa articulação de estatutos internos acaba por ser insuficiente para a proteção integral dos direitos dos usuários relacionados à liberdade de expressão. Em primeiro lugar, há uma compreensão cada vez maior de que a participação nas mídias sociais se afigura como instrumento essencial para o exercício de liberdades individuais. Esse diagnóstico coloca em debate até que ponto as redes sociais são espaços verdadeiramente privados ou se esses serviços, na realidade, mais se aproximariam a áreas públicas de circulação de conteúdo. Em segundo lugar – e esse parece ser um ponto crucial – as preocupações com as restrições de liberdades individuais nas redes sociais estão sendo agora debatidas em um contexto mais amplo de governança das plataformas. Reconhece-se aqui que o poder dos controladores de rede se exerce não apenas no eventual acionamento arbitrário das cláusulas contratuais privadas, mas, de modo mais vigoroso, no exercício pouco transparente dos seus interesses econômicos que informam os atos de moderação e policiamento dos seus usuários.

Todas essas deficiências do paradigma de neutralidade do conteúdo colocam dúvidas sobre a suficiência do sistema jurídico brasileiro. No Brasil, o sistema jurídico de responsabilidade dos intermediários de conteúdos on-line se estruturou em torno do art. 19 do Marco Civil da Internet. Esse dispositivo foi fruto de um frutífero debate legislativo com participação ativa de múltiplos stakeholders e de representantes da sociedade civil. Na redação atual, o dispositivo prevê que, em regra, o provedor de aplicações de Internet “somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para tornar indisponível o conteúdo apontado como infringente”.

É possível afirmar que a doutrina nacional tem interpretado que o art. 19 do MCI representou uma opção do legislador pelo modelo de responsabilização judicial, com o intuito de preservar a liberdade de expressão na Internet, ainda que em detrimento do controle absoluto do usuário sobre a informação. Essa escolha, porém, não significa necessariamente que o provedor esteja impedido de realizar a remoção do conteúdo na inexistência de ordem judicial.

Caso, a partir de uma notificação extrajudicial de um usuário, a empresa constate que está diante de uma violação dos termos de uso da rede social, por exemplo, a empresa poderá proceder a retirada do conteúdo, ainda que sem ordem judicial. Assim, na realidade, o art. 19 do MCI não prevê que a única hipótese de remoção de conteúdo consiste na existência de ordem judicial, mas, ao contrário, explicita que sempre que tal ordem existir, o conteúdo deve ser removido pela plataforma.

Diante desse desenho institucional adotado pelo MCI, é legítimo afirmar que boa parte do sistema de moderação de conteúdo on-line no Brasil está concentrado no exercício de estratégias de autorregulação por parte das plataformas. Todos esses fatores levam a crer que, embora o art. 19 do MCI tenha sido de inegável importância para a construção de uma Internet plural e aberta no País, hoje o dispositivo se mostra ultrapassado. A corroborar esse diagnóstico, diversas iniciativas estrangerias têm construído regimes de responsabilidade mais sofisticados para a operação de plataformas digitais. É importante buscar um meio do caminho entre um regime de liberdade total das plataformas e um regime de controle estatal completo do conteúdo. Essa tem sido, até aqui, a tentativa de jurisdições democráticas estrangeiras.

Regulação processual das plataformas 

O segundo paradigma regulatório que tem emergido nos últimos anos corresponde à regulação procedimental das redes sociais. A ampliação do poder de comunicação das grandes empresas da Internet tem feito com que os órgãos legislativos e judiciários de países democráticos passassem a ponderar a necessidade de definir regimes de responsabilidade civil mais rígidos para plataformas. Nos últimos anos, diversas opções legislativas têm sido imaginadas para o combate de determinados comportamentos ilícitos praticados nos ambientes virtuais – tais como a difusão de discursos de ódio, de manifestações difamatórias ou ainda de notícias falsas.

Uma nova onda de leis e regulações de plataformas estrangerias têm buscado impor balizas para a moderação de conteúdo. Essas novas legislações, da qual são exemplos a NetzDG alemã e o DSA da União Europeia, adotam estratégias de regulação bastante sofisticadas. Justamente para não incidir no risco de comprometer a liberdade de expressão, nenhuma dessas legislações define exaustivamente quais conteúdos seriam ilícitos. Há um forte consenso de que são preferíveis regulações baseadas em processos (process-based regulations) que coloquem sob os ombros das plataformas a responsabilidade de desenhar os seus serviços de forma mais segura para resultados danosos. Assim, o foco da regulação não deve incidir sobre o conteúdo, mas sobre o “design dos serviços, sobre seus modelos de negócios e sobre a forma como essas plataformas gerenciam riscos e tratam a exposição dos usuários aos riscos da difusão de conteúdos danosos” (tradução livre).

Esse insight mostra que, por diversas razões, a regulação de plataformas difere substancialmente daquela atribuída às mídias tradicionais, como rádio e televisão. Devido ao fato de as plataformas funcionarem a partir de processos contínuos de submissão e revisão de conteúdos e devido ao alcance transnacional dos seus modelos de negócios, é muito difícil no mundo das plataformas reproduzir o tradicional binômio separatório de conteúdo e transmissão. Na realidade, o que essas novas regulações mostram é que é preciso focar na arquitetura tecnológica das plataformas, principalmente nas decisões que são tomadas sobre como tratar reclamações feitas por usuários e na publicização e transparência de seus critérios.

Nas discussões sobre o tema no Reino Unido, por exemplo, tem se desenvolvido o conceito de “dever de cuidado” como um novo centro de gravidade do regime jurídico. O conjunto de regras que compõem tal dever de cuidado não requerem uma absoluta proteção contra todo e qualquer conteúdo ilegal on-line. Avaliar o cumprimento desse dever, o que se busca investigar é se a plataforma adota rotineiramente práticas razoáveis para impedir o surgimento e o espraiamento de riscos sistêmicos à ordem democrática.

De forma semelhante, o DSA da União Europeia que entrará em vigor em 2024 exige que as plataformas realizam a retirada de conteúdos ilícitos tão logo tomem conhecimento e adotem medidas de transparência para deixar claro como funciona a sua tomada de decisões na moderação de conteúdo. Além disso, as plataformas têm a obrigação de “agir de forma diligente, objetiva e proporcional na aplicação e cumprimento das restrições” estabelecidas nos termos e condições de uso dos seus serviços. O DSA exige ainda que as plataformas implementem uma estratégia de mitigação de risco (art. 35), que pode incluir adaptações aos termos de serviço das plataformas, bem como processos de moderação de conteúdo.

Esses são apenas alguns exemplos que mostram que uma regulação mais rígida e moderna para moderação de conteúdo em redes sociais é urgente e necessária no Brasil. Entre nós, é fundamental que um novo regime jurídico aumente a confiabilidade e a previsibilidade na moderação de conteúdo, a partir de garantias processuais e de mecanismos de resolução de disputa mais transparentes nas plataformas. A opção de focar mais no processo e menos na substância do conteúdo que vêm sendo desenhada nas legislações estrangeiras parece ser um caminho importante de debate. Adicionalmente, não podemos fugir do fato de que a demarcação da ilicitude de um conteúdo on-line possui intima relação com a própria tutela penal já existente. A tipificação dos crimes contra o Estado Democrático de Direito, por exemplo, é exterior e precede qualquer iniciativa regulatória.

Conclusão

A contraposição dos dois paradigmas de regulação de plataformas mostra-nos que o regime jurídico do Marco Civil da Internet, embora tenha sido inegavelmente importante para a preservação da liberdade de expressão on-line no Brasil, precisa ser revisto. É inegável que a construção de um novo regime regulatório requer um amplo debate público, com a participação de todos os stakeholders, da sociedade civil e da iniciativa privada. Todavia, parece-me que é chegado o momento de colocar sob ressalvas as posições daqueles que não estão abertos a discutir novas formas de responsabilidade para as plataformas digitais.

As condições de exercício da democracia on-line parecem ser vivamente dependentes da criação de deveres positivos, ainda que procedimentais, para o funcionamento das plataformas. Espero que oportunidades como este evento sirvam para o aprofundamento dos debates nesse sentido, tendo em vista a urgência e relevância deste tema.

Obrigado.

*Palestra proferida pelo ministro durante o seminário “Liberdade de expressão, redes sociais e democracia”, realizado no Rio de Janeiro em 13/3/2023.

Notas___________________

1 Para uma discussão mais aprofundada, cf. POLLICINO, Oreste. “Judicial protection of fundamental rights in the transition from the world of atoms to the word of bits: The case of freedom of speech”. European Law Journal, v. 25, nº 2, pp. 155–168, 2019, pp. 163–164; e LAND, Molly K. “A human rights perspective on US constitutional protection of the Internet”. In The Internet and Constitutional.

2 BALKIN, Jack M. “Free speech in the algorithmic society: Big data, private governance, and new school speech regulation”. University of California, Davis, pp. 1149–1210, 2018.

3 BASSINI, Marco. “Fundamental rights and private enforcement in the digital age”. European Law Journal, v. 25, nº 2, pp. 182–197, 2019, p. 187; e MORELLI, Alessandro; POLLICINO, Oreste. “Metaphors, judicial frames and fundamental rights in cyberspace”. American Journal of Comparative Law, v. 2, pp. 1–26, 2020, p. 26.

4 PADOVANI, Claudia; SANTANIELLO, Mauro. “Digital constitutionalism: Fundamental rights and power limitation in the Internet eco-system”. International Communication Gazette, v. 80, nº 4, pp. 295–301, 2018, p. 4. (“private operators have been acquiring law-making and law enforcement powers, defining the boundaries of some fundamental rights”).

5 CELESTE, Edoardo. “Terms of service and bills of rights: New mechanisms of constitutionalisation in the social media environment?” International Review of Law, Computers and Technology, v. 33, nº 2, pp. 122–138, 2018 (ao analisar a chamada Declaração de Direitos e Responsabilidade do Facebook, o autor diagnostica que essa plataforma adota terminologias típicas dos direitos constitucionais nos seus contratos privados).

6 DENARDIS, Laura. “The global war for Internet governance”. New Haven and London: Yale University Press, 2014, pp. 157-167. (“private intermediaries have increasingly become the arbiters of on-line expressive liberty”); e BLOCHWEHBA, Hannah. “Global platform governance: Private power in the shadow of the State”. SMU Law Review, nº February, pp. 27–72, 2019, p. 27. (“platforms are engaged in both rulemaking and adjudication”).

7 WIELSCH, Dan. “Os ordenamentos das redes: Termos e condições de uso – Código – Padrões da comunidade”. In Fake News e Regulação, São Paulo: Revista dos Tribunais, 2019, p. 95.

8 SUZOR, Nicolas. “Digital Constitutionalism: Using the rule of law to evaluate the legitimacy of governance by platforms”. SSRN Electronic Journal, v. 1, nº 2.009, pp. 1–21, 2017, p. 3.

9 CELESTE, E. “Terms of service and bills of rights: New mechanisms of constitutionalisation in the social media environment?” International Review of Law, Computers and Technology, v. 33, nº 2, pp. 122–138, 2019 (observando que os termos e condições das plataformas, principalmente do Facebook “adopt the traditional jargon of constitutional texts and articulate their contents in terms of rights, principles and duties”).

10 Nesse sentido, cf. PASQUALE, F. “Platform neutrality: Enhancing freedom of expression in spheres of private power”. Theoretical Inquiries in Law, v. 17, nº 1, pp. 487–513, 2016; LYNSKEY, O. “Regulating ‘Platform power’”. LSE Legal Studies Working Paper Nº 1/, nº 1, p. 31, 2017; e GILLESPIE, Tarleton. “Content moderation, AI, and the question of scale”. Big Data & Society, v. 1, nº 1, pp. 1-5, 2020.

11 GILLESPIE, T. “Regulation of and by platforms”. In The sage handbook of social media. London: Sage Reference, 2018. pp. 254–278. p. 255.

12 Por todos, cf. SOUZA, C. A. P. de. “Responsabilidade civil dos provedores de acesso e de aplicações de Internet: Evolução jurisprudencial e os impactos da Lei nº 12.695/2014 (Marco Civil da Internet)”. In Marco Civil da Internet. São Paulo: Atlas, 2014. pp. 791–817. p. 810.

13 TAMBINI, Damian. “Reconceptualizing media freedom. In Regulating big tech: Policy responses to digital dominance”. Oxford: Oxford University Press, 2022, p. 311.

14 WOODS, Lorna; PERRIN, William. “Obliging platforms to accept a duty of care”. In Regulating big tech: Policy responses to digital dominance”. Oxford: Oxford University Press, 2022, pp. 98–99.