Plataformas digitais como Google, Facebook, Whatsapp e Twitter se viram no centro dos questionamentos sobre um assunto que tem mobilizado autoridades em todo o mundo: a disseminação de desinformação e seus impactos nas disputas eleitorais, além de outros campos da vida social. Frente às críticas crescentes, viram-se obrigadas a reagir, apresentando medidas para combater o fenômeno. Mas até que ponto elas são efetivas? Ou se trata apenas de uma estratégia para mitigar danos à imagem pública?
O Facebook é o maior exemplo. Logo após o improvável Donald Trump vencer a disputa pela Presidência dos Estados Unidos em 2016, a empresa passou a ser apontada por críticos por supostamente ter contribuído para o resultado. Entre outras coisas, teria sido um canal privilegiado de disseminação de desinformação, tanto a favor do candidato quanto contra sua adversária, Hillary Clinton. A primeira reação do presidente da companhia, Mark Zuckerberg, foi desprezar as acusações.
Os questionamentos cresceram e Zuckerberg teve de mudar de postura, passando a afirmar que a companhia levava o problema a sério e estava comprometida com o combate à prática. O reposicionamento não foi suficiente para afastá-la da mira. O Congresso estadunidense abriu, no primeiro semestre de 2017, uma investigação para apurar a influência de agências russas na disputa presidencial de 2016, as quais teriam usado, entre outros artifícios, disseminação de desinformação por meio do Facebook.
Leia também
Em março deste ano, a companhia foi novamente envolvida em um escândalo, após um ex-funcionário da Cambridge Analytica informar que a empresa de marketing digital teria atuado decisivamente na campanha de Trump, utilizando, para isso, dados de dezenas de milhões de pessoas obtidos por meio de um aplicativo disponibilizado no Facebook. Em matérias de jornais como o britânico The Guardian e da também britânica emissora de TV Channel 4, ex-funcionários e os próprios diretores foram flagrados listando toda sorte de estratégias a partir de perfis formados por esses dados, inclusive táticas de desinformação. Zuckerberg e executivos foram convocados a prestar explicações no Parlamento dos EUA e de outros países. Não há mais como negar que se trata de uma questão que afeta a própria democracia.
Medidas implementadas pelo Facebook
Diante das pressões e da impossibilidade de ignorar as críticas, o Facebook anunciou um conjunto de medidas, tendo como elemento central a busca pela identificação dos conteúdos de desinformação. Ainda em 2016, foi criado um recurso para que os usuários pudessem denunciar posts considerados “notícias falsas” – a plataforma trabalha com este conceito, ao passo que temos optado por chamar de desinformação. A ferramenta também permite denúncias por outros motivos, como discurso de ódio, violência e assédio.
O Facebook divulgou ainda que trabalharia com sistemas automatizados, baseados em inteligência artificial, para fazer o mapeamento desse tipo de mensagem. Esse monitoramento seria complementado por análises de uma equipe que, estima-se, poderá ser composta por 20 mil pessoas até o fim deste ano. A alegação foi de que seria impossível monitorar todos os posts problemáticos apenas com equipes. Entretanto, o uso da automação envolve uma série de riscos, a exemplo da dificuldade de compreensão de contextos.
Em um cenário em que a desinformação está longe de ser uma diferenciação entre verdades e mentiras rígidas, podendo assumir diversas outras formas, como descontextualização e afirmações parciais, o uso destes sistemas, ainda que para uma primeira filtragem, traz preocupações. O próprio Facebook, em seu relatório semestral sobre remoção de conteúdo, celebrou o uso dessa tecnologia, mas reconheceu suas limitações, especialmente no caso de discurso de ódio, o que evidencia a dificuldade de fazer da fiscalização automatizada uma porta de entrada obrigatória.
Em outra frente, foram efetivados contratos com agências de checagem, para que apurassem publicações indicadas como notícias falsas. As questões em torno desses acordos já foram tratadas neste espaço. Vale lembrar que o Facebook entende que notícias falsas não são consideradas mensagens proibidas pelas regras internas da plataforma, os chamadas Community Standards, ou Padrões da Comunidade.
Mas outras práticas sim, e a companhia tem anunciado a derrubada de uma série de contas por essa razão. No dia 25 de julho, 196 páginas e 87 perfis foram removidos. A organização conservadora Movimento Brasil Livre, dona de parte das contas, reclamou da medida. O Facebook justificou a exclusão pelo uso, naquelas páginas e perfis, de práticas que contrariam os padrões estabelecidos pela companhia, como a manutenção de contas falsas ou com nomes falsos, o chamado “comportamento não autêntico”.
Contudo, a definição de “comportamento não autêntico” é bastante vaga e abre margem para interpretações. Pelas normas da plataforma, além da criação de contas e perfis falsos, é questionável a manutenção de perfis que participem de comportamentos não autênticos coordenados, ou seja, quando múltiplas contas trabalham em conjunto com a finalidade de: enganar as pessoas sobre a origem do conteúdo, enganar as pessoas sobre o destino dos links externos aos serviços da plataforma, enganar as pessoas na tentativa de incentivar compartilhamentos, curtidas ou cliques e enganar as pessoas para ocultar ou permitir a violação de outras políticas de acordo com os Padrões da Comunidade.
Ora, como delimitar o que é “enganar pessoas na tentativa de incentivar compartilhamentos, curtidas ou cliques”? Embora o Facebook tente se esquivar de críticas ao não derrubar conteúdos por classificá-los como notícias falsas, este é apenas um exemplo de como há, em suas regras internas, proibições extremamente vagas e que dão margem para classificações deliberadas exclusivamente pela empresa.
Este cenário evidencia um problema estrutural: a mediação editorial que a plataforma faz, algo muito distante de um papel neutro que seus diretores e representantes tentam apresentar. O problema já foi objeto de questionamentos tanto de grupos progressistas quanto de associações conservadoras. No dia 17 de julho, a emissora britânica Channel 4 veiculou um documentário em que jornalistas atuaram em equipes de moderação de conteúdo do Facebook e relataram como grupos de extrema-direita tinham um tratamento diferenciado e eram eximidos de punições por mensagens publicadas.
As noções vagas e a mediação editorial também estão presentes em outra estratégia do Facebook para, diz a companhia, combater a desinformação no seu interior: a alteração dos critérios do News Feed, sistema que seleciona os conteúdos expostos a cada usuário. Desde a eleição de Trump, a empresa anunciou diversas mudanças, entre elas a redução do alcance de publicações que busquem cliques. Segundo comunicado divulgado em maio, a companhia observaria formas de “exagerar informações”. Um post alertando para o perigo de um desastre ou de ameaças a indivíduos ou grupos estariam “exagerando informações”?
Tais estratégias são marcadas pela falta de transparência tanto dos critérios para classificação dos conteúdos quanto da sua aplicação. No caso de remoções, muitas vezes o usuário não sabe sequer o porquê da decisão, classificadas genericamente como “violação das regras internas”. Embora haja uma alternativa genérica de questionamento, a instância que o avalia é a própria empresa. No caso de redução do alcance, o usuário pode nem perceber que um post seu foi marcado e “punido”. Assim, a plataforma reduz a circulação de conteúdos sem uma lógica pedagógica necessária, na qual as pessoas teriam clareza do que pode e do que não pode de modo a não repetir comportamentos.
O que o Whatsapp tem feito
O Whatsapp adotou poucas medidas nos últimos anos para conter a desinformação. Foi preciso um escândalo envolvendo uma série de linchamentos motivados por mensagens propagada pela rede social, na Índia, para que mudanças em seu funcionamento fossem colocadas em prática. Mesmo antes do caso, a plataforma já era motivo de preocupação pela capacidade de replicação rápida de conteúdos, cuja origem é de difícil identificação.
Após os casos, o Whatsapp anunciou em julho que o aplicativo passou a marcar mensagens encaminhadas e limitou o número de envios a 20 destinatários. Na Índia, a restrição foi maior. A empresa criou uma funcionalidade segundo a qual administradores de grupos podem restringir o envio de mensagens por seus participantes, evitando o efeito spam no encaminhamento para grupos.
Se, por um lado, o Facebook (que é dono do Whatsapp) se abstém de fazer monitoramento e moderação de conteúdos nesta rede – algo positivo frente aos riscos e problemas já apontados aqui –, por outro o aplicativo tem uma arquitetura complexa para monitorar e combater o fenômeno, pela dificuldade de identificar os autores das mensagens, pela possibilidade de replicação da informação e pela cultura de desresponsabilização pelos conteúdos compartilhados.
As respostas do Google
O Google é também um canal importante de difusão de desinformação. Sua responsabilidade é talvez maior que as demais plataformas, uma vez que o acesso aos conteúdos no seu interior ocorre independentemente de redes de amigos e é organizado exclusivamente pelos algoritmos da plataforma, que define os resultados da busca.
A empresa fez uso deste poder de seleção nas medidas que adotou. Uma delas foi a calibragem dos algoritmos segundo “avaliadores de qualidade”, para que os sistemas não mostrem “conteúdos enganosos” (a companhia trabalha com este termo, bem como mensagens manipuladas ou fabricadas). Este tipo de moderação traz riscos à liberdade de expressão, uma vez que não há qualquer transparência acerca dos critérios usados para definir conteúdos “enganosos, manipulados ou fabricados” nem como eles são aplicados, uma vez que há pouca clareza na exibição dos resultados de busca entre as milhões de opções disponíveis.
Em relação à checagem de notícias, além do acordo com as agências, o Google dá espaço a notícias e sites “de qualidade” sobre determinado assunto buscado em um local de destaque no site. O detalhe é que as fontes desses conteúdos são veículos de mídia parceiros da empresa. Ou seja, o maior buscador absoluto do mercado mundial acaba invisibilizando determinados sites sem explicações claras e favorece aquelas firmas de mídia com as quais firma parcerias comerciais.
Juntam-se aí o poder do controle sobre os resultados de busca e os interesses econômicos do conglomerado. Tal poder pode motivar o favorecimento de determinados grupos, seja por benefício econômico ou político. Um exemplo foi a articulação feita pelo governo federal, em janeiro deste ano, para que a plataforma redirecionasse buscas sobre a reforma da previdência para sites favoráveis à proposta do Executivo.
O Google também vem financiado projetos diversos de combate à desinformação. A empresa é uma das principais patrocinadoras da Coalizão First Draft, referência internacional no tema. A rede vem promovendo projetos de checagem em eleições, como nos EUA em 2016, na França no ano passado e no Brasil neste ano, o projeto Comprova. Contudo, tanto a coalizão quanto as iniciativas promovidas pelo braço da firma voltada ao jornalismo, o Google News Initiative, por óbvio, passam longe dos questionamentos ao papel das próprias plataformas na disseminação de desinformação.
O foco do Twitter
Recentemente, o diretor-executivo do Twitter admitiu em entrevista à emissora estadunidense CNN que a empresa não definiu como lidar da melhor forma com o combate à desinformação e outras formas de discurso de ódio. A empresa tem sido a mais tímida nas medidas adotadas neste campo. A rede social tem evitado iniciativas de moderação de conteúdo, assim como de classificação do que é desinformação e sanções como remoção de mensagens e suspensão ou cancelamento de contas.
O foco tem sido o combate a perfis falsos e a “contas automatizadas mal-intencionadas e/ou que disseminam spam”. Nas eleições brasileiras, a empresa anunciou que vai fiscalizar contas de candidatos e partidos. Dentre este universo, estão os robôs, os chamados bots. Em maio deste ano, a média semanal de perfis derrubados chegou a 10 milhões. Se por um lado o foco na derrubada de bots é interessante, por outro a derrubada de contas com base em conceitos vagos como perfis “mal-intencionados”, também cria espaço para abusos e exageros.
Soma-se a isso o problema grave que marca todas as plataformas digitais: a ausência de transparência tanto nos critérios quanto em sua aplicação. Essa falta de clareza abre flancos para que as empresas sejam inclusive questionadas por espectros políticos diversos pelas medidas sancionatórias. Se tais críticas podem pressioná-las de alguma forma quando vêm de autoridades ou grupos políticos de visibilidade, o usuário comum segue com pouca ou nenhuma força frente às decisões das plataformas.
E há outra questão central no debate: embora estas empresas se afirmem como privadas, tal natureza não pode ser justificativa para violação de direitos ou tratamentos abusivos em suas plataformas, especialmente em um contexto em que assumem relevância social, com usuários na casa dos centenas de milhões, como o Twitter, ou até bilhões, como Google e Facebook.
Assim como não é possível caluniar uma pessoa em qualquer meio privado ou discriminar um indivíduo no interior de uma empresa, também devemos pensar como, no âmbito das plataformas, proteger os usuários e promover um ambiente de transparência e respeito à liberdade de expressão e ao debate plural e democrático. Este pode ser um caminho frutífero no combate à desinformação, mais do que as medidas adotadas até agora. Em um ambiente de crescente alerta sobre o papel desses agentes para a vida social e para a democracia, esta é uma ação urgente e que cabe a toda sociedade.