O Tribunal Superior Eleitoral (TSE) divulgou que, entre 27 de setembro e 26 de outubro, recebeu 1.037 denúncias de contas de WhatsApp suspeitas de disparos de mensagens em massa, resultando no banimento de 256 contas pela plataforma. A empresa informou que 80% das contas denunciadas já haviam sido derrubados por seu sistema contra spam antes mesmo de serem reportadas ao TSE. Não há mais detalhes sobre os motivos para as exclusões, justificadas, em geral, por violarem os Termos de Serviço da plataforma. O número é pequeno se considerarmos, entretanto, que, de acordo com dados oficiais do WhatsApp, cerca de dois milhões de contas são banidas globalmente todos os meses por esse mecanismo.
Talvez o baixo índice de denúncias seja fruto do fato de que muita gente não sabe que esse comportamento é considerado ilegal no processo eleitoral e nem conhece os caminhos para denunciá-lo. O WhatsApp não tem, por exemplo, uma política específica para lidar com casos de disseminação de desinformação, tampouco adota mecanismos de contato direto com os usuários, a exemplo de notificações, para avisá-los sobre a vedação da prática ou sobre o canal de denúncias do TSE.
Leia também
Até hoje, o WhatsApp lançou no Brasil apenas uma campanha sobre o tema, intitulada “Compartilhe fatos, não rumores”, que aponta ter alcançado oito milhões de brasileiros, número bem menor que as 130 milhões de contas ativas no país. Em outros países, como na Índia, mais medidas têm sido adotadas, inclusive ações presenciais de esclarecimento da população sobre o fenômeno.
Em abril deste ano, a plataforma passou a limitar no Brasil o encaminhamentos de mensagens, o que pode diminuir a velocidade na propagação da desinformação, e firmou parcerias com agências de checagem. Mas para conter de fato as chamadas fake news seria preciso limitar a atuação de grupos que agem de forma coordenada (que podem criar infinitos grupos e listas de transmissão, por exemplo) e contam com sistemas que burlam eventuais empecilhos da rede – além de desenvolver um esforço conjunto com autoridades competentes para ampliar a investigação e responsabilização de agentes que produzem desinformação na plataforma.
Ou seja, o WhatsApp está fazendo pouco, e o quadro não é muito diferente nas demais plataformas. É o que revela a pesquisa “Fake news: como as plataformas enfrentam a desinformação”, lançada recentemente pelo Intervozes. O estudo mapeou as ações das principais redes sociais em operação no Brasil – Facebook, Instagram, WhatsApp, YouTube e Twitter – a partir de 2018, quando a desinformação já era considerada um problema em âmbito mundial, e concluiu que as medidas tomadas pelas empresas têm sido insuficientes para enfrentar concretamente o fenômeno. Todas tangenciam a questão, evitando inclusive conceituar a desinformação e dispor de equipes específicas para dar conta do desafio de interromper o fluxo desinformativo, que ameaça democracias em todo o mundo. Também faltam divulgação de informações sobre medidas em curso, transparência sobre sua implementação e avaliação dos resultados.
Em relação à prática de desinformação durante as eleições, a pesquisa do Intervozes mostra que boa parte das medidas não é adotada em todos os países onde as plataformas funcionam. Muitas vezes, as plataformas privilegiaram os processos eleitorais nos Estados Unidos e na União Europeia, deixando mais desguarnecidas as eleições em países como o Brasil.
Facebook e Instagram
Um exemplo é a mudança feita pelo Facebook e Instagram no design dos rótulos de conteúdos verificados para tornar mais nítidas classificações de “falso” ou “parcialmente falso”. Já implementada para as eleições gerais do Reino Unido e nos Estados Unidos, a medida adiciona um filtro cinza que diferencia a imagem questionada das demais e passou a ser utilizada no Brasil.
Também nos Estados Unidos, para as eleições presidenciais de 2020, as contas de candidatos ganharam proteções extras contra invasões, como autenticação em dois fatores e um monitoramento para evitar acessos indevidos de locais estranhos. Um rastreador dos gastos dos candidatos a presidente também foi criado. Em junho, foi implementada uma opção de não receber anúncios políticos aos estadunidenses. No último dia 30 de outubro, o Instagram removeu a guia “recentes” de páginas de hashtags, explicando que faz isso “para reduzir a propagação em tempo real de conteúdo potencialmente prejudicial que poderia aparecer em torno da eleição”, divulgou.
O Facebook também anunciou US$ 2 milhões em investimentos para organizações que trabalham com ações de formação nos Estados Unidos, visando a promoção de uma relação mais crítica com os conteúdos que circulam na plataforma.
> TSE definirá se disparos em massa e uso ilegal de dados são abuso de poder
Já para o pleito do Parlamento Europeu de maio de 2019, entre outras ações, o Facebook estabeleceu a identificação do indivíduo e de seu local de residência para administradores de páginas com muitos seguidores. Também foi instalado um centro de operações em Dublin, na Irlanda, a partir do qual houve coordenação em tempo real com as equipes da sede da empresa, nos EUA. Não há registro de esforços com o mesmo empenho e gastos financeiros no Brasil.
Mas lá como aqui a plataforma passou a remover mensagens que possam enganar os usuários sobre datas, formas e locais de votação, sobre exigências para a participação no pleito e que possam ameaçar eleitores de modo violento. O problema desse tipo de medida é a ausência de transparência e devido processo sobre a moderação do conteúdo. Da forma como é feita hoje, a decisão por remover postagens e banir contas cabe exclusivamente ao Facebook, ainda que parte dos conteúdos seja avaliada por verificadores parceiros. Assim, a plataforma se coloca como árbitro da verdade do que circula nas redes, o que traz riscos à liberdade de expressão. Até agora, por exemplo, não foram divulgadas informações sobre remoções de contas e conteúdos nem sobre outras medidas relacionadas às eleições em curso no Brasil.
Outra problemática abordada no estudo do Intervozes é que discursos originais e anúncios de políticos não passam por processos de checagem, pois são tratados como exceção e como válidos. Para não classificá-los, a empresa argumenta possíveis impactos na liberdade de expressão e no debate público. É preciso, contudo, encontrar um equilíbrio para que essa exceção não se torne uma naturalização do discurso desinformativo, sobretudo considerando o que vemos frequentemente em posts de líderes como Donald Trump e Jair Bolsonaro. Um caminho poderia ser incluir alertas sobre as verificações e inserir limitações de compartilhamento ou de interação.
Para não ficar só nos problemas, vale destacar que Facebook e Instagram rotulam anúncios, que só são autorizados após um cadastro com identificação de responsáveis e passam a figurar na Biblioteca de Anúncios da plataforma, dando transparência ao que é impulsionado. Aqueles sobre temas sociais de políticos não identificados são passíveis de não aprovação, caso contenham desinformação.
YouTube
Nas eleições de 2018 nos Estados Unidos e para o Parlamento Europeu em 2019, quando usuários pesquisavam por um candidato/a na plataforma, o YouTube oferecia junto aos resultados um painel com informações adicionais sobre a pessoa, como afiliação partidária e distrito pelo qual concorria. Para o pleito deste ano nos Estados Unidos, o Google, corporação dona do canal de vídeos, está modificando as regras de propaganda política, para dar maior visibilidade a quem comprar anúncios eleitorais na plataforma. Em entrevista à pesquisa, o Google informou que trata-se de um esforço geral sobre transparência de anúncios e que a implementação dessas medidas no Brasil vai depender dos desafios que estão enfrentando em outros países e dos requisitos colocados no processo. A ausência disso preocupa, já que basta acessar a plataforma para verificar que são muitos os anúncios políticos que constam nela.
Por aqui, também não houve mudanças no sistema de recomendações da plataforma, que tem sido apontado como amplificador da visibilidade de canais extremistas. No Brasil, por exemplo, os canais que mais cresceram nas eleições de 2018 foram os de extrema direita.
O YouTube declara adotar ações para permitir que a plataforma seja considerada uma fonte confiável de informações e notícias sobre as eleições, ao mesmo tempo que um espaço aberto para um discurso político “saudável”. Neste contexto, remove vídeos que violem as diretrizes gerais da plataforma para conteúdos relacionados às eleições, com destaque para os vídeos objeto de manipulação técnica (como edições que tirem uma informação de contexto), além de conteúdos que possam enganar os eleitores sobre processos de votação ou elegibilidade de candidatos.
Em março de 2020, a plataforma disse que sua prioridade é garantir a integridade do debate público sobre eleições em todo mundo, usando para isso pessoas e tecnologias de machine learning para combater a desinformação. Em entrevista à pesquisa do Intervozes, informou que, como parte dos preparativos específicos à eleição brasileira, aperfeiçoaram a tecnologia anti-spam, para abordar redes de automação mal-intencionadas voltadas sobre eleições; criaram linhas de comunicação com as autoridades para avaliar os problemas que surgirem; monitoramento de tendências e picos nas conversas relacionadas às eleições de 2020 para possíveis atividades de manipulação; e verificaram os principais candidatos e as principais contas de partidos como uma proteção contra a falsa identidade.
Para efeito de comparação, nas eleições dos Estados Unidos em 2018 e da União Europeia em 2019, o Twitter identificou todos os candidatos e criou um selo para suas contas, que acompanhava os tweets e retweets publicados por elas, para informar os usuários da rede. Nos Estados Unidos, também foi colocada no ar uma ferramenta para permitir denúncias de informações enganosas sobre como participar do pleito.
A medida recente mais importante tomada pelo Twitter foi a proibição da veiculação de propaganda política na rede social durante os períodos de campanha eleitoral. Tal propaganda, autorizada até o final de 2019 em alguns países, incluía não apenas conteúdos diretamente postados pelas candidaturas, mas também identificava “anúncios temáticos” que identificassem um candidato ou defendessem mudanças legislativas de importância nacional – como aborto, direitos civis, mudanças climáticas, armas, imigração, impostos, comércio e seguridade social. Os conteúdos ficavam disponíveis num Centro de Transparência de Anúncios.
Parte da política do Twitter para integridade nas eleições , em vigor no Brasil, restringe a publicação ou o compartilhamento de conteúdo que possa diminuir o comparecimento dos eleitores às urnas (incluindo intimidações), enganar as pessoas sobre quando, onde e como votar ou informar falsas filiações partidárias. Entretanto, segundo a empresa, não são consideradas violações a essa política conteúdos cujo uso excessivo foi constatado nas últimas eleições no Brasil, como declarações incorretas sobre um representante público eleito, candidato ou partido político; e conteúdo orgânico polarizado, tendencioso, hiper-preconceituoso ou que contenha pontos de vista controversos sobre as eleições ou os políticos.
> Campanhas feministas ocupam as redes para vencer sub-representação no poder
Em outubro, a rede social anunciou que, faltando uma semana para as eleições dos Estados Unidos, passaria a emitir alertas para os usuários sobre desinformação. Não há previsão para o mesmo ocorrer no pleito brasileiro, assim como ainda não foram divulgados resultados das iniciativas em curso no país.
Até agora, olhando para o conjunto das plataformas, parece que o volume da desinformação em circulação nas redes é menor. Mas, se a impressão for real, não se pode afirmar que ela é resultado das medidas adotadas pelas redes sociais para o processo eleitoral. Pode ser fruto, por exemplo, das dificuldades de articulação política, tendo em vista a fragmentação do campo da direita, ou até mesmo do fato das eleições serem municipais, mais pautadas, portanto, por temas locais. A baixa divulgação de informações pelas plataformas e as possibilidades de comunicações segmentadas em bolhas deixam, mais uma vez, a sociedade sem clareza do que está ocorrendo nas redes. Talvez só os resultados das urnas tragam respostas, para o risco da nossa democracia.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para redacao@congressoemfoco.com.br.
Deixe um comentário