No início de março, o Tribunal Superior Eleitoral publicou as resoluções que contêm novas regras eleitorais, já aplicáveis às eleições de 2024. Antes de as versões finais serem aprovadas pelos ministros da Corte, houve uma consulta pública durante a qual a sociedade civil pôde oferecer sugestões às minutas de resolução elaboradas pela ministra Cármen Lúcia, vice-presidente do TSE e relatora dos textos. A ARTIGO 19 Brasil e América do Sul fez sugestões de alteração, supressão e adição de dispositivos à Resolução 23.610/2019, que dispõe sobre a propaganda eleitoral. Por tratar de assuntos sensíveis, como liberdade de expressão e combate à desinformação, a respectiva minuta foi a que teve mais contribuições do público.
Apesar de conter avanços importantes, o novo regramento gera uma série de preocupações quanto a seus efeitos sobre a liberdade de expressão. A principal diz respeito ao artigo 9º-E, uma novidade que não constava da respectiva minuta. Segundo esse artigo, as plataformas digitais serão solidariamente responsáveis, nas esferas cível e administrativa, “quando não promoverem a indisponibilização imediata de conteúdos e contas, durante o período eleitoral”, em alguns “casos de risco”, como desinformação sobre candidatos e a urna eletrônica, postagens caracterizadoras de crimes contra as instituições democráticas e discurso de ódio.
O novo artigo permite ao menos duas interpretações, o que por si só já é um grave problema, considerando a insegurança jurídica gerada. Por isso, seria importante que, o quanto antes, o próprio TSE se pronunciasse claramente sobre o sentido da nova regra. A interpretação possivelmente mais óbvia é também a mais problemática: o novo dispositivo estaria criando exceções ao regime de responsabilidade das plataformas digitais previsto pelo artigo 19 do Marco Civil da Internet (MCI), ao menos durante as eleições. A outra, mesmo sem essas exceções, sugere ao menos a existência de novas e imprecisas hipóteses de restrição à liberdade de expressão.
Antes de explicar por que a alteração do artigo 19 seria problemática e inconstitucional, é importante mostrar a genealogia desse regime de responsabilidade, que remonta ao insulto mais emblemático da história da internet (ou ao principal caso de suposto “conteúdo nocivo” que gerou repercussões jurídicas relevantes). Ele foi feito anonimamente, nem era tão ofensivo e tampouco envolveu famosos – a não ser pelo fato de a pessoa e a empresa a quem se dirigiu estarem no centro da trama retratada em O lobo de Wall Street, filme estrelado por Leonardo Dicaprio, que interpreta Jordan Belfort, um sagaz picareta que enriqueceu enganando clientes de sua corretora de ações.
O caso viria a interferir decisivamente na maneira como a internet existe hoje, pois Belfort entrou com uma ação na Justiça, no início dos anos 1990, contra a Prodigy, empresa de tecnologia que fornecia acesso às salas de bate-papo online onde a corretora e o sócio de Belfort foram ofendidos. O escândalo envolvendo o personagem de DiCaprio ainda não tinha vindo totalmente à tona, e Belfort acabou vencendo a disputa. Segundo a decisão, a Prodigy, para tentar banir pornografia e palavrões, fazia moderação de conteúdo. Então, foi equiparada a um jornal, que edita o que é publicado e, por isso, responde legalmente pelo conteúdo produzido.
O precedente judicial claramente se tornou um incentivo para que as empresas de tecnologia da aurora da internet simplesmente se abstivessem de fazer qualquer tipo de moderação de conteúdo. Do contrário, a boa intenção de sanear o ambiente online poderia ser o gatilho para condenações judiciais.
Ao saber do caso Prodigy, um político aficionado por tecnologia farejou o problema. Cerca de um ano depois, em 1996, após debates com usuários, empresas e congressistas, tornou-se um dos autores da famosa Seção 230 do Communications Decency Act (lei norte-americana criada para tentar evitar o acesso a pornografia por menores de idade), dispositivo legal segundo o qual intermediários não devem ser equiparados a editores, independentemente de fazerem moderação de conteúdo. Surgia então o principal alicerce jurídico sobre o qual, anos depois, plataformas como Facebook, YouTube, TikTok e Amazon ergueriam seus oligopólios.
Esse regime de imunidade dos intermediários foi replicado no mundo todo. No Brasil, como já afirmado, está no artigo 19 do Marco Civil da internet, de 2014: as plataformas só podem ser responsabilizadas se não cumprirem decisões judiciais específicas determinando a remoção de certa postagem.
O próprio Marco Civil, cujo texto foi amplamente debatido, explica a razão de ser do regime: “assegurar a liberdade de expressão e impedir a censura”. A lógica é simples: se as plataformas pudessem ser responsabilizadas pelos conteúdos produzidos e publicados por terceiros, haveria um forte incentivo para moderarem conteúdo massivamente, uma espécie de ronda ostensiva em todos os cantos de seus espaços digitais. Além disso, a peneira usada nessa filtragem tenderia a ser bastante fina. Na dúvida, melhor remover. Resultado: um número elevado de remoções indevidas de conteúdos lícitos.
Voltemos então à nova regra do TSE. Segundo sua literalidade, as plataformas passam a ser juridicamente responsáveis quando não promoverem a “indisponibilização imediata” de conteúdos e contas. Mas, assumindo-se que “imediata” tem o sentido de “praticamente ao mesmo tempo”, fica a pergunta: ao mesmo tempo que o quê? O próprio momento de publicação? Ou uma decisão judicial determinando a remoção?
Como o próprio artigo não traz a resposta, surge então a interpretação, talvez mais manifesta, de que implicitamente a regra estaria dispensando a decisão judicial prévia. No entanto, o dispositivo não pode e não deve ser interpretado dessa forma. O silêncio do texto deve ser preenchido com a lei, que, no caso, é o cristalino artigo 19 do MCI. Entendimento contrário é inconstitucional, pois ignora o próprio MCI e a hierarquia normativa entre uma lei produzida pelo Congresso Nacional e uma regra administrativa que apenas regulamenta disposições legais. Não se deve presumir a inconstitucionalidade da regra criada pelo TSE – a não ser que o próprio Tribunal venha a público esclarecer o sentido do novo artigo.
É verdade que outros trechos da Resolução impõem uma série de novos deveres às plataformas; por exemplo, a adoção de medidas para reduzir ou impedir a circulação de desinformação eleitoral. Mas, como essas disposições não preveem sanções em caso de descumprimento, o artigo 9º-E seria então o mecanismo encontrado pelo TSE para, indiretamente e de forma pouco clara, forçar a observância desses deveres. Ainda assim, essa interpretação continua sendo inaceitável, pelos motivos já expostos e também porque, segundo a Lei das Eleições (Lei 9.504/1997), o Tribunal não pode criar sanções não previstas nessa lei ou restringir direitos.
Também é importante mencionar que uma das novidades da Resolução 23.610 é a inclusão de um dispositivo (artigo 9º-D, parágrafo 1º) que proíbe as plataformas de disponibilizar o serviço de impulsionamento pago para a veiculação de desinformação eleitoral. Isso significa que as plataformas, ao menos quando receberem dinheiro de candidatura ou partido para promover determinada postagem, devem verificar se ela não veicula um “fato notoriamente inverídico ou gravemente descontextualizado” que possa atingir a integridade eleitoral.
Pois bem, nem mesmo nessa hipótese, quando seria de se esperar que as big tech fossem mais diligentes, o regime de responsabilidade é alterado. Isso porque o artigo 57-B, parágrafo 4º, da Lei das Eleições, em observância ao artigo 19 do MCI, prevê justamente que, em caso de conteúdo impulsionado onerosamente, as plataformas só podem ser responsabilizadas pelos danos decorrentes desse conteúdo caso deixe de removê-lo após ordem judicial específica. E o mesmo dispositivo é replicado na Resolução 23.610 (artigo 28, parágrafo 4º). Portanto, não faria sentido a criação de uma regra geral alterando o regime de responsabilidade (artigo 9º-E da Resolução) e, ao mesmo tempo, outra regra manter o regime em situações em que faria algum sentido demandar maior cuidado das plataformas, já que estão lucrando diretamente com as postagens.
É compreensível o anseio por alterações. Afinal, ao se criarem exceções à imunidade das empresas de tecnologia, o resultado esperado é justamente a redução da circulação de determinados tipos de conteúdo, já que, vislumbrando a possibilidade de serem condenadas pela Justiça ao pagamento de indenizações, as plataformas seriam mais cuidadosas ao moderarem conteúdo, protegendo assim, por exemplo, a integridade do processo eleitoral. É um fim aparentemente legítimo e, à primeira vista, a aplicação do amargo remédio até faz sentido, em que pese o gravíssimo efeito colateral de geração de um estado de coisas policialesco nos espaços digitais.
Mas é bastante improvável que as big tech tenham capacidade operacional de implementar uma moderação de conteúdo tão intensiva e precisa. Primeiro, porque os algoritmos usados para esse fim são falhos, inclusive com efeitos discriminatórios sobre grupos historicamente marginalizados. As chances de erros em escala são grandes. Segundo, porque aplicar regras jurídicas não é uma operação matemática, com resultados certos ou errados. Se nem mesmo o Judiciário ou os juízes de um colegiado têm respostas únicas sobre determinado assunto, como esperar algo diferente de processos de moderação de conteúdo, sejam eles automatizados ou conduzidos por humanos?
A questão se torna ainda mais sensível porque as hipóteses de restrição à liberdade de expressão criadas pelo TSE (ou seja, as previsões abstratas dos tipos de conteúdo abstratamente proibidos) são bastante vagas, o que torna a aplicação dessas regras ainda mais complexa e, na prática, significa ainda mais poder às plataformas.
Outro problema: ao controlar o fluxo de comunicação em seus espaços virtuais por meio desse tipo de moderação de conteúdo, as plataformas estarão exercendo uma atividade que só cabe ao Judiciário (aplicar regras jurídicas a casos concretos). Assim, além de o Judiciário delegar a poderosos oligopólios a função de julgar quais restrições à liberdade de expressão são admissíveis, surge uma questão de ordem lógica e cronológica: sem decisão judicial que considere uma publicação como ilícita, ainda não há ilicitude. Sem ilicitude, inexistem motivos legais para a publicação ser removida. Se futuramente uma decisão judicial condenar alguma plataforma pelo fato de ela ter deixado de remover algum conteúdo que ainda não era juridicamente ilícito, é como se essa mesma decisão obrigasse retroativamente a empresa a adivinhar qual seria o desfecho de uma disputa judicial que sequer existia. O mais poderoso algoritmo jamais terá essa bola de cristal.
Além disso, se uma das premissas por trás dos anseios por moderação de conteúdo mais rigorosa e contundente é a percepção de que algumas poucas corporações com muito arsenal econômico e político estão bombardeando e distorcendo o debate público – com implicações no exercício livre e consciente do voto e na própria percepção sobre a legitimidade das eleições –, faz-se contraditório criar uma estratégia que, ao fim e ao cabo, concederá ainda mais poder a essas mesmas corporações. Empresas que, ao controlarem o acesso dos usuários às arenas cívico-digitais, necessariamente adotarão parâmetros econômicos para balizar suas decisões.
Portanto, se a alteração do regime de responsabilidade das plataformas tem sérias implicações na liberdade de expressão e não pode ser empreendida, segundo a Constituição, por meio de resolução, a única interpretação aceitável do artigo 9º-E é que o artigo 19 do Marco Civil da Internet prevalece intacto em qualquer circunstância.
Ainda assim, outros pontos críticos continuam existindo, pois o artigo 9º-E contém, em seus cinco incisos, novas e abrangentes hipóteses de restrição à liberdade de expressão. Na prática, concedem à própria Justiça Eleitoral o poder de barrar uma quantidade enorme de publicações que não deveriam ser passíveis de remoção. O quadro se torna ainda mais alarmante porque, considerando a capilaridade da Justiça Eleitoral, as novas regras serão aplicadas por milhares de juízes espalhados pelo país, provavelmente sem entendimentos uniformes.
Independentemente da interpretação que se dê ao artigo 9º-E, surgem ainda questões de natureza procedimental. A primeira delas é que, por não estar presente na minuta que resultou na nova resolução, o novo artigo não pôde ser objeto de críticas e discussão durante a consulta e audiências públicas. Além disso, o novo dispositivo não deveria vir ao mundo por meio de resolução do TSE, mas sim por lei elaborada pelo Congresso Nacional. O Parlamento é a arena própria de discussão não apenas porque tem a competência constitucional e a legitimidade para tratar do assunto, mas também porque conta com um processo legislativo que, em tese, garante participação popular e transparência e concretiza a representação democrática. Por mais que o TSE tenha a salutar e louvável iniciativa de promover participação, seus integrantes não foram eleitos e o processo de criação de resoluções é menos inclusivo que o legislativo.
O TSE tem sido o principal fiador da lisura procedimental das eleições, mas, ao usar tão intensamente de sua competência normativa, sua legitimidade pode ser corroída, o que o tornaria mais vulnerável a crises políticas e investidas antidemocráticas.
Além disso, segundo a jurisprudência internacional, restrições à liberdade de expressão devem ser excepcionais e só admitidas quando observados três critérios: a restrição deve estar prevista em lei (em sentido formal), deve atender a um objetivo legítimo do Direito Internacional dos Direitos Humanos e deve ser necessária para atingir os fins buscados, cumprindo ainda os requisitos de adequação e proporcionalidade. Ainda que se assuma que a proteção da confiabilidade da urna eletrônica, do voto livre e consciente e da paridade de armas eleitoral seja um desses fins legítimos buscados por alguma medida que restrinja a liberdade de expressão, esta não pode ser infligida sem a existência de uma lei com ascendência democrática. E não basta ser qualquer lei: ela deve ser clara, permitindo que as pessoas possam orientar adequadamente suas condutas. As novas hipóteses criadas pelo TSE, mesmo que estivessem em um ato normativo criado pelo Legislativo, dificilmente passariam por esse crivo.
Também é passível de discussão se a restrição imposta de fato é adequada, necessária e proporcional, ou se, ao contrário, haveria outras saídas possíveis, tão ou mais eficientes, mas com menor grau de intervenção na liberdade de expressão. A complexa resposta não pode perder de vista que fenômenos como desinformação e discurso de ódio durante processos eleitorais têm várias causas e, por isso, demandam a construção de uma política pública holística, por meio de debates públicos, considerações empíricas e normativas e consultas a pesquisadores, tarefa que dificilmente o Judiciário conseguiria empreender.
É por esse motivo que, para a ARTIGO 19, outras perspectivas devem ser consideradas. Sem tirar a importância da atividade de moderação de conteúdo, também é preciso compreender que outra faceta tão ou mais importante das plataformas é a chamada curadoria de conteúdo: o oferecimento aos usuários de um cardápio exclusivo de postagens, elaborado pelos chamados algoritmos de recomendação. A principal diretriz que os guia é a necessidade de captar permanentemente corações e mentes, pois é assim que as plataformas enchem seus cofres, por meio da coleta massiva de dados dos clientes, utilizados então para direcionar propaganda às mesmas pessoas cujos dados foram coletados. Para esse circuito fechado funcionar e ser mais rentável, a dieta oferecida precisa prender o freguês à mesa. Infelizmente, desinformação e discurso de ódio têm sido excelentes petiscos.
Portanto, existe uma relação direta entre o modelo de negócio das plataformas e a disseminação de conteúdos considerados nocivos. Elaborar estratégias que considerem essa variável pode ser mais interessante do que apostar todas as fichas no patrulhamento ostensivo via moderação de conteúdo feita pelas plataformas. Regulação econômica dessas empresas de tecnologia é o principal caminho possível, pois diminuiria a capacidade de pouquíssimas companhias controlar o debate público e levaria a mais diversidade e pluralidade no mercado de ideias.