SÃO PAULO, SP (FOLHAPRESS) - Com exceção dos casos em que há ordem judicial, a decisão sobre a retirada ou não de determinado conteúdo, suspensão ou banimento de contas em mídias sociais é tomada pelas próprias plataformas.

À medida que o fenômeno de desinformação e disseminação de conteúdos nocivos nas redes foi se intensificando, também aumentou a pressão sobre elas, tanto para que melhorassem a moderação quanto para que fossem mais transparentes em relação a quais suas regras e como são aplicadas.

Embora existam pontos em comum entre as principais empresas, há diferenças sobre transparência, tipo de medidas tomadas e nível de detalhamento das regras.

Qual a base para retirada de conteúdos e contas das redes?

Mídias sociais e plataformas possuem seus próprios termos de uso, com os quais os usuários precisam concordar para poder utilizar essas aplicações e esses serviços.

Além dos termos de serviço, é comum que existam também políticas de comunidade, onde são especificadas condutas e conteúdos vetados em cada plataforma.

Com base nessas regras, as empresas podem remover conteúdos de caráter proibido, como costuma ser o caso de postagens com discurso de ódio e incitação à violência.

Para um usuário comum, contudo, pode ser bastante complicado estar a par das regras de políticas ou diretrizes para moderação.

Além de as regras públicas serem na maior parte das vezes divididas em diversas páginas nem sempre fica claro qual foi a última vez que elas foram atualizadas.

Apenas parte das empresas informa a data da última atualização das regras e, ainda assim, por vezes não se evidencia quais os pontos alterados.

As plataformas retiram apenas conteúdo ilegal?

Não. Há conteúdos que não são ilegais, mas cuja retirada é prevista por parte das plataformas, como em caso de postagens com nudez.

Por outro lado, também há conteúdos que podem ser considerados crimes e que não estão entre as possibilidades de moderação realizada pela plataforma, como os crimes contra a honra. Nesses casos, é preciso acionar o Judiciário para demandar a retirada.

Vale ressaltar que, ao passo que cada país tem suas leis e diferentes limitações à liberdade de expressão, as plataformas em geral possuem regras globais.

Entre os conteúdos vetados, costumam figurar, por exemplo, discurso de ódio e incitação à violência.

Não há uma definição na legislação brasileira do que seja discurso de ódio. Do ponto de vista legal, o conceito no país vem sendo construído mais com base na jurisprudência dos tribunais.

No caso das plataformas, a maioria delas define em suas políticas o que consideram discurso de ódio e quais as punições aplicáveis.

A única possibilidade é a retirada?

Não, em alguns casos, em vez da retirada, as punições podem ser diminuição do alcance do material, rotulagem com informações adicionais ou alertas aos demais usuários sobre aquele conteúdo, desmonetização do canal ou perfil, ou, no extremo, a suspensão ou banimento da conta infratora.

Também o comportamento de contas, como no caso de contas consideradas falsas, de spam ou com comportamento inautêntico, figura entre as justificativas para remoção.

Como ocorre a moderação? Em geral, além da análise realizada por moderadores, há também análise automatizada com uso de inteligência artificial. Ela pode ocorrer tanto por iniciativa da própria empresa ou a partir de denúncias realizadas por usuários ou parceiros.

Existem regras na lei?

Não, a legislação brasileira não obriga tampouco impede as plataformas de moderar conteúdo ou contas. O tema é debatido no Congresso no projeto de lei das fake news, que está tramitando na Câmara no momento.

Quais críticas costumam ser feitas quanto à aplicação das regras?

faDe um lado, as plataformas são criticadas por não retirarem conteúdos questionados, o que se intensificou em meio à pandemia e a postagens sobre fraude eleitoral.

De outro, há reclamações de usuários que consideram a moderação abusiva, eventualmente sem direito a apelação ou sem dados concretos que permitam entender o porquê da punição.

Também há críticas sobre haver uma falta de consistência na aplicação das regras, diante da percepção de que conteúdos semelhantes podem receber tratamentos distintos.

E quais as críticas às regras em si?

O fato de as políticas das plataformas serem globais também é apontado por especialistas como um complicador.

Entre as consequências deste modelo, está tanto a existência de regras que não fazem sentido para um determinado país quanto a falta de regras que seriam necessárias a outro.

Outra crítica se refere ao grau de clareza das regras, já que formulações demasiadamente genéricas acabam dando maior margem de interpretação às plataformas e dificultando o entendimento dos usuários sobre o que de fato viola as regras e sobre qual punição podem sofrer.

As plataformas possuem regras sobre desinformação eleitoral?

Entre as principais plataformas mundiais, as regras sobre alegações infundadas de fraudes foi impulsionada pelo comportamento do ex-presidente dos EUA Donald Trump.

Há, no entanto, muitas questões em aberto. Desde regras que não necessariamente se aplicam ao Brasil até casos em que não há menção explícita quanto ao procedimento em relação a postagens sobre fraude ou questionamento do resultado.

No caso do YouTube, por exemplo, foi criada uma regra que prevê remoção de vídeos com alegações falsas de que fraudes ou erros ou problemas técnicos generalizados mudaram o resultado de eleições anteriores.

Contudo até o primeiro semestre de 2021 ela era restrita aos Estados Unidos e, até o momento, foi ampliada apenas para a Alemanha.

Já entre as políticas do Facebook sobre o tema, que é parte do rebatizado Meta (que inclui Facebook, Instagram e WhatsApp) não há uma previsão clara do que seria feito em caso de postagens questionando o desfecho ou alegando fraude.

A maioria das possibilidades de remoção se refere a episódios que envolvam incitação ou intenção de violência.

Nas regras do Twitter, há um capítulo que trata de desinformação eleitoral com episódios relacionados a fraude. Entre os casos que passariam por moderação estão informações não verificadas sobre fraude, adulteração de votos, contagem de votos ou certificação dos resultados da eleição. Não está definido, contudo, critérios de análise da gravidade para definir se o conteúdo seria marcado ou removido.

Como mostrou reportagem da Folha, os acordos divulgados pelo TSE (Tribunal Superior Eleitoral) e pelas plataformas de internet para as eleições de 2022 ficam aquém das políticas eleitorais adotadas pelas empresas nos EUA.

REGRAS DE MODERAÇÃO DE CONTEÚDO SOBRE ELEIÇÃO

A Folha de S.Paulo reuniu algumas das principais regras de moderação de conteúdo de cada uma das plataformas com ligação direta a temas eleitorais. Parte delas possui tais regras reunidas, em outras estão distribuídas em diferentes seções de suas políticas.

Os dados estão atualizados conforme versões publicadas nos sites das empresas em 24 de fevereiro de 2021.

FACEBOOK E INSTAGRAM N

ão há regras claras envolvendo postagens que aleguem fraudes sem comprovação ou que se recusem a aceitar o resultado eleitoral. Muitas das regras envolvem situações envolvendo defesa de violência em diferentes graus.

As regras de moderação incluem também discurso de ódio, que é definido pela plataforma como um ataque direto a pessoas, e não a conceitos e instituições, baseado em características como raça, etnia, nacionalidade, religião, orientação sexual, casta, sexo, gênero, identidade de gênero e doença grave ou deficiência.

As mesmas regras também se aplicam ao Instagram, segundo assessoria da plataforma (que junto com Facebook e WhatsApp compõem a Meta). Os sites das plataformas, porém, não deixam claro que as regras são compartilhadas.

REMOÇÃO

Falsificação de informações, como datas, locais e horários, bem como de métodos de votação

Declaração falsa sobre quem pode votar e contabilização dos votos

Declarações de intenção, incitações, declarações condicionais ou intencionais, ou defendendo a violência devido à votação ou a administração ou resultado de uma eleição

Declarações de intenção ou apoio, incitações ou declarações condicionais incitando a levar armas a zonas eleitorais ou locais usados para contar votos ou administrar uma eleição

REMOÇÃO, APÓS ANÁLISE DE INFORMAÇÕES ADICIONAIS

Ameaças contra autoridades eleitorais

Declarações implícitas de intenção ou apoio sobre levar armamentos a zonas eleitorais

REDUÇÃO DE ALCANCE

Com exceção dos casos especificados nas regras, notícias falsas em geral não são removidas pelo Facebook, mas têm seu alcance reduzido. Postagens realizadas por políticos e candidatos, contudo, não estão no rol de conteúdos analisados pelas agências de checagem parceiras. RESTRIÇÃO DE CONTA DE POLÍTICAS PÚBLICAS

O Facebook possui uma página que trata de restrição de conta de figuras públicas, caso publiquem conteúdo durante atos de violência ou agitações civis em andamento. A plataforma elenca alguns fatores que levará em conta para determinar o período de restrição por incitar ou celebrar eventos violentos ou agitações civis. Entre eles, a gravidade da violação e histórico na plataforma. Fonte: Regras sobre violência e incitação; Coordenação de danos e divulgação de crime, política de notícias falsas

YOUTUBE

A empresa criou uma página, em 2021, em que reúne exemplos de conteúdos sobre eleições que violam suas regras, podendo ser removidos. A lista não é completa, deixando ampla margem para análise da empresa. A aplicação do item sobre alegações falsas de fraudes é restrito, até o momento, aos Estados Unidos e à Alemanha.

A plataforma também possui regras específicas sobre discurso de ódio.

REMOÇÃO

Vídeo postado após a certificação dos resultados oficiais para promover alegações falsas de que fraudes, erros ou problemas técnicos generalizados mudaram o resultado de eleições nacionais anteriores

(se aplica a qualquer eleições dos EUA e eleições da Alemanha de 2021) Vídeo que encoraja outras pessoas a interferir em processos democráticos como obstruir ou interromper procedimentos de votação

Vídeo com informações incorretas sobre o horário ou local da votação. Ou conteúdo com alegações falsas que podem desestimular a participação

Vídeo com informações roubadas, que, caso divulgadas, podem interferir nos processos democráticos

REDUÇÃO DE RECOMENDAÇÃO

A empresa afirma reduzir a recomendação de conteúdos que chegam perto de violar as políticas da plataforma, conteúdo duvidoso ou que possa desinformar os usuários de maneira prejudicial". INFORMAÇÕES ADICIONAIS NA BUSCA

A plataforma possui um painel de informações, com checagem de fatos, que pode aparecer no topo da busca, a depender dos termos buscados pelo usuário, mostrando se a pesquisa se refere a algo verdadeiro, falso ou parcialmente verdadeiro, segundo checagem de veículo terceiros.

SUSPENSÃO DE CONTA

Após violações seguidas, que resultem em três avisos em um prazo de 90 dias, o canal é removido permanentemente. Um único caso de abuso grave também pode resultar na rescisão do canal Fonte: Políticas contra desinformação em eleições

TWITTER

Nas políticas do Twitter sobre eleições, a empresa afirma que as listas de casos não são restritivas, ou seja, outras situações também podem ser punidas. A plataforma não detalha critérios para remoção ou marcação, diz apenas que a exclusão é para violações graves.

A plataforma também possui uma política contra propagação de ódio.

REMOÇÃO OU MARCAÇÃO

Alegações enganosas que causem confusão a respeito de procedimentos e métodos das eleições já estabelecidos. Ou sobre as ações de autoridades ou entidades que viabilizam as eleições Informações não verificadas sobre fraude eleitoral, adulteração de votos, contagem de votos ou certificação dos resultados da eleição

Alegações enganosas sobre os resultados ou desfechos de um ato cívico que exigem ou poderiam causar uma interferência na implementação dos resultados de tal ato, como celebrar vitória antes de os resultados da eleição terem sido certificados, incitar condutas ilegais para impedir a implementação prática ou procedimental dos resultados das eleições

Alegações que induzem ao erro sobre longas filas, problemas com equipamentos ou outros contratempos nos locais de votação

Informações enganosas relacionadas a votos que não estão sendo contados

GRADAÇÃO DAS MEDIDAS

Em caso de violações graves, ocorre a exclusão de conteúdo e impedimento temporário de postar. A exclusão de tuíte acontece após duas transgressões.

Com cinco ou mais transgressões, ocorre a exclusão da conta e suspensão permanente Quando o conteúdo viola as regras, mas não é removido, a empresa pode adotar diferentes medidas como aviso no tuíte, desativação de retuítes e curtidas, e redução da visibilidade Fonte: Política de integridade cívica

TIKTOK O TikTok prevê que é vetado conteúdo que engane os usuários sobre eleições. Também não permite conteúdo que contenha discurso de ódio ou envolva comportamento de ódio. Em sua página de integridade eleitoral, a empresa elenca as diferentes punições possíveis e dá exemplos de aplicação relacionados a eleições. A seguir, estão alguns deles.

REMOÇÃO

Alegações de fraude eleitoral ou alegações de que seu voto não será contado

Conteúdo com data falsa para as eleições

Tentativas de intimidar eleitores

Supressão de voto

REDUÇÃO DA VIRALIZAÇÃO

Usuários que fizerem pesquisas ou buscarem hashtags, de termos associados a desinformação sobre fraude eleitoral, são redirecionados para as políticas da plataforma A plataforma reduz a recomendação de conteúdos com alegações não verificadas sobre declaração de vitória antes da confirmação oficial do resultado Alegações relacionadas a locais de votação no dia das eleições que ainda não tenham sido verificadas REMOÇÃO DE CONTA

Contas comprovadamente dedicadas à disseminação de desinformação relacionada a eleições serão banidas

Fonte: Página sobre Integridade eleitoral