Por que a campanha #MissingVoices quer discutir retirada de conteúdo por mídias sociais?

Campanha lançada globalmente pela ARTIGO 19 pede mais transparência e estruturação de um mecanismo eficiente de apelação em caso de remoção indevida de conteúdos em redes sociais. Aqui respondemos três questões sobre a importância dessa questão.

Por que essa é uma questão de direitos humanos?

Por seu tamanho, alcance, relevância no debate público e capacidade de influência, as redes sociais devem se submeter aos padrões internacionais de direitos humanos, legislações locais e determinados códigos de conduta. Ou seja, o fato dessas plataformas serem empresas não as exime de responsabilidades sobre violações aos direitos das usuárias e usuários – incluindo à expressão e à informação.

Em outras palavras, as regras não se balizam apenas pelos termos e acordos entre usuários e prestadoras, mas devem também seguir as legislações nacionais e recomendações multilaterais. No Brasil, o Artigo 5º da Constituição Federal determina que “é livre a expressão da atividade intelectual, artística, científica e de comunicação, independentemente de censura ou licença”. O Artigo 220 diz, em seu parágrafo 2º, que é “vedada toda e qualquer censura de natureza política, ideológica e artística”. Trechos do Marco Civil da Internet (Lei 12.965/2014) reforçam a importância de coibir a censura, afirmando princípios como “a garantia da liberdade de expressão, comunicação e manifestação de pensamento” e a “preservação da natureza participativa da rede” e seu objetivo de promoção do acesso à informação.

Casos de bloqueio de conta e retirada de conteúdo de maneira unilateral e pouco transparente pelas plataformas não são as medidas mais adequadas para lidar com conflitos nesta esfera. A interrupção da comunicação só deve ser considerada em casos muito específicos, de acordo com parâmetros claros e seguindo padrões internacionais de direitos humanos. Por outro lado, o compromisso com a diversidade de opiniões, a proteção das expressões dos grupos mais vulneráveis e o respeito à manifestações artísticas, políticas e culturais deve balizar a ética, os mecanismos decisórios e as ações públicas das plataformas de mídias sociais.

Não é só uma questão de aprimoramento algoritmo ou emprego de mais funcionários para moderar conteúdos, mas de discutir um modelo de negócios e seus princípios éticos que – ao mesmo tempo em que lucra com captura e tratamento de dados pessoais, quantidade de cliques e acesso às páginas – busca mitigar eventuais violações a liberdade de expressão de maneira paliativa e ineficiente.

Isso quer dizer que um conteúdo nunca pode ser removido?

Não, quer dizer que a retirada de conteúdo, o bloqueio de contas, a restrição ou impulsionamento do alcance e as manipulações de algoritmos devem seguir parâmetros claros. Que os processos de decisão pela remoção também devem ser transparentes o suficiente para permitir apelações e circular informações que possibilitem distinguir conteúdos que configuram má intenção deliberada, crimes, discurso de ódio e violência de manifestações de opinião, paródias e expressões críticas e artísticas variadas.

Os relatórios de transparência das empresas apresentam, ainda que de forma incompleta, informações sobre a retirada de conteúdos de suas plataformas. Para além de remoções embasadas em decisões judiciais, as regras e padrões dos contratos destas plataformas com o usuário também viabiliza ações de remoção de conteúdo em alguns casos, muitos deles legítimos. Entre as condutas que podem gerar essas remoções estão, por exemplo, conteúdo de ódio, pornografia infantil, uso indevido de dados pessoais, ameaças e violações à integridade física e psicológica, spam, propaganda de itens regulados (drogas e armas), contas falsas e apologia ao suicídio (veja abaixo os links para os relatórios de transparência).

Entretanto, interesses econômicos e reverberação por popularidade fazem com que as plataformas tenham critérios desproporcionais em relação às derrubadas de conteúdo, principalmente na aplicação de seus guias para a comunidade. Assim, o risco de haver injustiças nessas remoções é considerável.

Em 2018, a Folha de S. Paulo noticiou que o Facebook removeu da plataforma imagens de uma aldeia indígena da Amazônia que haviam sido publicadas por alguns usuários, sendo um deles o próprio jornal. As fotos dos índios suruwahas eram parte parte de um especial feito pelo veículo com o fotógrafo Sebastião Salgado. Depois de ser acionado pelo jornal, permitiu o compartilhamento das imagens. Mas o que acontece em casos que não envolvam grandes veículos de comunicação ou pessoas famosas?

A própria conta da ARTIGO 19 já sofreu uma remoção injusta, em 2017, quando escolheu uma imagem do fotógrafo Oliver Kornblihtt em que aparecem duas mulheres exibindo seus seios em um ato da Marcha das Vadias, em São Paulo, num protesto que mobiliza a nudez justamente para denunciar a violência contra as mulheres. Nos vídeos da página da campanha #MissingVoices é possível conhecer outros casos de remoções indevidas em outros países, indicando que o problema é sistêmico e não pontual.

As remoções injustas se inserem em contextos cada vez mais desafiadores de ataques e desinformação, em que fortalecer a pluralidade de vozes é também cada vez mais fundamental. A ação criminosa e censora de grupos poderosos de desinformação e propagadores de ataques também exige a atenção da governança das plataformas. Os dois caminhos levam para o silenciamento de grupos – principalmente os historicamente marginalizados – e processos de restrição das expressões e circulação de informações nas redes sociais. Em outras palavras, o contexto já é complexo o suficiente para perdermos vozes importantes por conta de decisões generalistas e automatizadas ou pouco transparentes.

Como a campanha pode ajudar?

A campanha tem dois objetivos: que as empresas implementem um mecanismo eficiente de apelação e sejam mais transparentes.

Sempre que as empresas retirarem o conteúdo de um usuário ou suspenderem uma conta, o usuário deve receber uma notificação que indique qual conteúdo foi removido e por quê. A oportunidade de recorrer da decisão deve ser oferecida de forma compreensível e eficaz.

Reconhecendo que tanto algoritmos como pessoas podem errar e reproduzir preconceitos, é preciso o mecanismo de apelação seja capaz de reverter os casos de censura. E que as redes sociais proativamente publiquem dados mais detalhados sobre o número de reclamações, remoções e apelações de conteúdo que foram feitas, juntamente com detalhes sobre o tipo de informação que foi removida e restabelecida.

Além de mais transparência com os usuários, o compartilhamento de informações, permitiria estudos acadêmicos e análise destes dados por atores externos, o que poderia ajudar a compreender e aprimorar a forma como estas empresas agem na moderação de conteúdos publicados em seus sites.

Materiais para saber mais:

Relatórios de Transparência sobre remoções de conteúdo:
YouTube: https://transparencyreport.google.com/youtube-policy/removals?hl=en
Twitter: https://transparency.twitter.com/en.html
Facebook: https://transparency.facebook.com

Tendências da liberdade de Expressão na América Latina e Caribe – UNESCO (em inglês): http://www.unesco.org/new/fileadmin/MULTIMEDIA/FIELD/Kingston/pdf/situaçõesworld_trends_freedom.pdf

Publicação online da ARTIGO 19 sobre desinformação, política e conteúdo online no Brasil: https://desinformacao.artigo19.org/

Consulta aberta da sociedade civil latino americana sobre regulação de plataformas e remoções indevidas de conteúdos:
https://www.observacom.org/contribuicoes-para-uma-regulacao-democratica-das-grandes-plataformas-que-garanta-a-liberdade-de-expressao-na-internet/

Campanha #MissingVoices (em inglês)
https://www.article19.org/campaigns/missingvoices/
Twitter Rules: Analysis against international standards on freedom of expression
Facebook Community Standards: Analysis against international standards on freedom of expression
YouTube Community Guidelines: Analysis against international standards on freedom of expression

Icone de voltar ao topo