Foto: Arquivo Cidadeverde.com

O Facebook, que pertence à Meta, aprovou anúncios para serem veiculados em sua plataforma que continham desinformação sobre a eleição brasileira, aponta um relatório da organização não-governamental Global Witness.

A entidade revela que mesmo anúncios com erros sobre informações básicas, como a data da eleição, e que não dependem, portanto, de interpretação não estariam sendo detectados e coibidos pelo processamento e moderação da empresa.

Uma das regras do Facebook proíbe “desinformação sobre datas, lugares, horários e métodos de votação”. Apesar disso, a plataforma não barrou anúncios com frases como: “O dia da eleição está mudando: As pessoas São Paulo agora devem votar no dia 3 de outubro”. O pleito é no dia 2.

A plataforma tampouco rejeitou anúncios que diziam: “Agora votar é voluntário. Eleitores entre 18 e 70 anos no Brasil agora podem escolher se eles querem ou não votar. Tudo bem querer ficar em casa” e “Não se preocupe em trazer documento no dia da eleição, as máquinas de votação saberão quem você é”.

A empresa tem política para vetar desinformação “sobre quem pode votar, quais são os requisitos eleitorais, se um voto é contabilizado e quais informações ou materiais devem ser apresentados para votar”.

Além de mostrar falhas na moderação com base em suas próprias regras, o teste da organização indica problemas no processo de autorização para anúncios eleitorais e políticos, sobre os quais há transparência em relação ao responsável pelo pagamento.

Desde 2020, passou a ser obrigatório um processo de autorização para veicular esse tipo de anúncio no Brasil. O usuário precisa apresentar um documento de identidade e comprovar endereço residencial de correspondência no país.

É o próprio anunciante que faz uma autodeclaração sobre se a postagem corresponde a temas políticos. A Meta afirma que utiliza inteligência artificial para fazer essa identificação daquilo que pode não ter sido declarado.

Ao fazer o teste, a Global Witness não rotulou os anúncios como sendo políticos e submeteu nove deles a partir de um computador no Quênia e um outro a partir do Reino Unido. De acordo com a organização, não foi usado nenhuma ferramenta para mascarar a real localização do usuário, como VPN.

O pagamento foi feito no Reino Unido. O público-alvo escolhido foi de usuários no Brasil. Foram submetidos dez anúncios, todos pela mesma conta.

De acordo com a organização, apenas um dos anúncios foi inicialmente rejeitado pelo Facebook. Seis dias depois, porém, “sem qualquer intervenção da Global Witness, o mesmo o anúncio foi aprovado “sem explicação”.

“O processo é totalmente opt-in. Ele assume que as pessoas têm boas intenções. Mas, como sabemos, quem espalha desinformação não tem boas intenções”, diz Jon Lloyd, consultor sênior da Global Witness e responsável pela investigação.

Segunda a entidade, o teste mostra que autorregulação não funciona. “Precisamos garantir que haja pessoas checando se na verdade o Facebook realmente está fazendo o que ele diz”, afirma Lloyd.

O Facebook afirmou que não poderia se pronunciar por não ter acesso ao relatório na íntegra. A entidade afirma que informou à empresa o conteúdo dos anúncios e o link da conta pela qual eles foram submetidos.

A Folha questionou o Facebook se a empresa era capaz de identificar que as postagens foram submetidas por esta conta com tais informações, se o conteúdo dos anúncios incluídos no relatório violavam suas políticas e, em caso positivo, quais as possíveis falhas teriam impedido que eles fosse barrados.

A empresa não respondeu às perguntas e elencou ações que tem tomado para promover informações confiáveis no país.

No teste, a Global Witness aponta que também foi aprovada a veiculação de anúncios que colocavam sob suspeição o sistema eleitoral brasileiro.

“O Sistema eletrônico não é confiável! Precisamos de versões de papel impresso do voto de todos para que eles sejam válidos! Não podemos aceitar o voto até que modifiquem o sistema”, dizia um dos anúncios submetidos.

No Brasil, a Meta ainda não se comprometeu a proibir os anúncios que tenham alegações infundadas de fraude eleitoral durante e após a eleição. Não há regras claras sobre o assunto nas diretrizes da plataforma.

Reportagem da Folha de S.Paulo mostrou que as principais big techs, entre elas a Meta, não revelam dados sobre suas equipes de moderação voltadas ao português do Brasil nem se elas serão reforçadas para o período eleitoral. As empresas também não responderam qual o investimento em inteligência artificial para analisar conteúdo no idioma.

Além disso, apontam a possibilidade de auditoria independente de terceiros sobre as ações da Meta e que a empresa responda às recomendações feitas recentemente por mais de 90 organizações da sociedade civil brasileiras.

Pesquisadores da UFMG (Universidade Federal de Minas Gerais), lançaram em agosto uma ferramenta chamada “CampanhaSemFake” que tem por objetivo a realização de uma espécie de auditoria independente dos anúncios eleitorais e políticos do Facebook.

Voluntários precisam instalar um plug-in no Google Chrome e usar o Facebook pelo desktop para contribuir com o projeto. As propagandas e notícias visualizadas são então enviadas, de forma anônima, para a base de dados do projeto.

A ferramenta é uma parceria com o Laboratório de Informática de Grenoble, na França. De acordo com o grupo, a coleta de dados realizada segue o Regulamento Geral sobre Proteção de Dados Europeu, que está em consonância com a Lei Geral de Proteção de Dados Pessoais Brasileira.

 

Fonte: Folhapress