Facebook finge combater fake news, mas a gente não cai nessa

Compartilhar:

Quando a gente diz que mentira não paga boleto, é a mais pura verdade para nós, brasileiros. Acreditar nas fake news bolsonaristas, que pintam um Brasil supostamente melhor sob Bolsonaro, não faz mágica. A inflação continua subindo, o salário mínimo tem o menor poder de compra desde a invenção do Real, a fome voltou. Essa é a realidade do brasileiro. Mas, para algumas empresas, a mentira paga boleto sim! É o caso do Facebook, que prefere lucrar com a desinformação em vez de aplicar no Brasil o empenho que dedica ao tema nos EUA.

E isso não é apenas impressão. A cientista de dados e ex-funcionária do Facebook Frances Haugen, que estará no Brasil essa semana, concedeu uma entrevista à Folha de S.Paulo, na qual diz: “O Brasil é uma das democracias mais importantes do mundo e garanto a vocês que o português brasileiro é um dos idiomas que não têm os sistemas básicos de segurança que deveria.”

Frances é ​​especialista em administração de produtos algorítmicos (ou seja, nos “robôs” que indicam o que vai aparecer na tela do seu Tik Tok, Facebook, Instagram, Twitter etc) e foi contratada pelo Facebook, em 2019, para atuar no combate à desinformação naquela rede. Sem obter sucesso, pediu demissão e, em 2021, revelou documentos internos da empresa, os Facebook Papers, que mostram: o Facebook faz muito pouco para combater mentiras e fake news, pois boa parte de seu lucro vem daí. 

Não é a primeira vez que falamos disso. Recentemente foi divulgado um outro relatório, mostrando como o Facebook lucrou com contas falsas, em vez de combatê-las.

Conhecer o posicionamento das grandes empresas de tecnologia, saber o que elas poderiam estar fazendo contra fake news e cobrar publicamente para que façam, é essencial para garantir a lisura do processo eleitoral brasileiro. Em última análise, para proteger a própria democracia.

Ciente dos riscos que o país corre, o Tribunal Superior Eleitoral (TSE) formalizou acordos com oito redes sociais para conter a desinformação nas redes este ano. O principal objetivo é garantir a remoção de conteúdos considerados “danosos ao processo eleitoral” (por exemplo, as incessantes fake news que questionam as urnas eletrônicas). 

Um dos resultados foi que Facebook e Instagram se comprometeram a abrir um canal de denúncia exclusivo para o TSE e a identificar e rotular os conteúdos como “desinformativos”, ou seja, ele são expostos porém com um aviso de que não são confiáveis. Com o WhatsApp, o tribunal desenvolveu um bot (conta mecanizada) para tirar dúvidas das pessoas em relação às eleições. 

Mas é pouco. Pouquíssimo. As intenções declaradas são bonitas, mas é no faturamento que a verdade aparece. Rede social vive de burburinho e mentira gera muito interesse. Na prática, o que acontece é as redes lucrarem com a disseminação da mentira para, depois, muito devagar, rotularem esse conteúdo. Frances diz que essa prática é comum no Facebook. A Meta (empresa dona do Facebook, Instagram e WhatsApp) não informa o alcance de um conteúdo desinformativo, antes ou depois de rotulá-lo.

Esse corpo mole das plataformas em combater fake news não acontece por falta de capacidade técnica ou intelectual. É por opção. O Facebook mobiliza mais recursos nesse tema para os países onde há mecanismos de regulação, enquanto oferece migalhas para os demais. A propósito, é bom observar: países como Estados Unidos e Alemanha já regulam a mídia (e isso não deveria ser tabu) e têm avançado em leis para regular também as plataformas de redes sociais. Por isso, lá o Facebook se mexe de verdade. Já aqui… 

Vejamos. Uma das formas de aferir o quanto uma plataforma digital está empenhada em combater a desinformação é pela quantidade de moderadores de conteúdo que falam o idioma de determinado país. O Ministério Público enviou ofício ao Facebook e às outras plataformas perguntando isso e pedindo informações sobre a inteligência artificial em português. As empresas não especificaram. “A Meta não responde porque, se fosse honesta sobre o quanto investe em segurança em línguas sem ser inglês, as pessoas ficariam furiosas. Eles têm sido muito negligentes”, disse France.

Ela conta que, segundo documentos do próprio Facebook, eles só conseguiam filtrar entre 3% e 5% do discurso de ódio. Na melhor das hipóteses, o Facebook consegue detectar 20% do conteúdo desinformativo. Mas esse número depende da precisão da inteligência artificial em outros idiomas. “Pensando de forma realista, eles devem estar rotulando no máximo 5% (em português). Não podemos confiar neles”, diz.

Pois é. Eles fingem que combatem fake news, mas nós não vamos fingir que acreditamos. Já existem campanhas da sociedade civil para pressionar congressistas a melhorarem nossas leis (ao contrário do que fez Bolsonaro, com uma medida provisória que fragilizou o Marco Civil da Internet), e também para cobrar das próprias plataformas menos corpo mole. Essa será uma das grandes batalhas deste ano. Pela verdade, pela democracia, pela reconstrução do país.