Brasil

Ao mirar na superfície, PL das Fake News falha em combater estruturas de desinformação

Nas próximas semanas, a Câmara deve fazer sua apreciação do Projeto de Lei 2630/20, mais conhecido o PL das Fake News, mas que tem o nome oficial pomposo de Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet.

O texto apresentado originalmente no Senado Federal foi bastante modificado e, entre idas e vindas, entre pareceres do relator e emendas, flertou-se consistentemente com um texto horrível, que acabou sendo bastante melhorado depois de uma saraivada de críticas de especialistas e da sociedade civil. Ainda assim o texto tem muitos problemas, como o rastreamento em massa de mensagens — que certamente não vai ser eficaz em debelar o que busca combater (vide https://www1.folha.uol.com.br/poder/2020/07/regra-para-armazenar-cadeia-de-mensagens-do-whatsapp-pode-ser-ineficaz-em-projeto-de-fake-news-no-congresso.shtml) –, entre outros atalhos que o PL está oferecendo a juízes autoritários.

Mas não vou me deter nesses problemas aqui. Gente mais competente já está fazendo isso. Quero fazer uma análise mais de fundo, explorando o que se esconde por trás de expressões como “Responsabilidade e Transparência na Internet”, que faz parte do título do PL, e os motivos e equívocos que tem levado parte da esquerda a aderir mesmo às piores versões desse projeto, sem fazer um debate consistente e mais detido com seus interlocutores tradicionais.

De cara aponto que pode até ser que saia dessa discussão uma lei palatável, que tenha pontos positivos, em especial ao demandar obrigações de transparência das plataformas de redes sociais, mas com certeza não teremos uma lei nem perto da ideal, que leve em consideração as raízes do problema da desinformação no Brasil e a conta das plataformas no agravamento desse problema.

É um projeto de ocasião, feito na ressaca das eleições de 2018 e inspirado por depoimentos espalhafatosos dados na CPMI das Fake News. Essas determinantes, ainda que legítimas, não formaram uma visão estruturada e de médio prazo sobre como enfrentar a disseminação da desinformação nas plataformas e, por consequência, sobre como regular as plataformas. Embora o PL institua medidas que vão afetar um conjunto complexo de aplicações e serviços na Internet, que estão em constante mudança e que devem se transformar ainda mais nos próximos anos, o texto foi redigido tendo uns poucos aplicativos em mente: WhatsApp e Facebook, pra citar os mais importantes.

Vale dar uma olhada no artigo 4o, que fala sobre os objetivos do projeto (estou usando aqui a versão que saiu do Senado para a Câmara). O primeiro parágrafo diz, textualmente, que a lei busca “o fortalecimento do processo democrático por meio do combate ao comportamento inautêntico e às redes de distribuição artificial de conteúdo e do fomento ao acesso à diversidade de informações na internet no Brasil”. Vamos esquecer a segunda parte da frase, já que não há muito no resto do texto sobre apoio direto a novos canais de informação. Trata-se ali de apontar que a democracia estaria ameaçada por dois fatores: “comportamento inautêntico” e “redes de distribuição artificial de conteúdo”. É o que está na cabeça dos legisladores, o que eles estão tateando como sendo o problema.

Pistas sobre o que está por trás dessas duas expressões, e de outras, estão no artigo seguinte, o 5o. Quanto às “redes de distribuição artificial”, elas estão conceituadas especificamente como “comportamento coordenado e articulado por intermédio de contas automatizadas ou por tecnologia não fornecida ou autorizada pelo provedor de aplicação de internet (…) com o fim de impactar de forma artificial a distribuição de conteúdos”. Já a definição sobre “comportamento inautêntico” não está lá, na verdade a expressão nem aparece mais ao longo do texto. O que temos é a conceituação sobre “conta inautêntica” e “conta automatizada”. A primeira é definida como “conta criada ou usada com o propósito de assumir ou simular identidade de terceiros para enganar o público” e a segunda como “conta preponderantemente gerida por qualquer programa de computador ou tecnologia para simular ou substituir atividades humanas na distribuição de conteúdo em provedores de redes sociais e de serviços de mensageria privada”.

Essas definições nos mostram um quadro do que se está entendendo como pernicioso no jogo democrático. E as imperfeições nesse diagnóstico. Os parlamentares estão mirando na superfície e não nos mecanismos. Estão atacando o que veem, ou o que a mídia escreve sobre, o robô, o fake. Assistiram Black Mirror demais.

Atacar o comportamento coordenado e articulado que performa a “rede de distribuição artificial”, por outro lado, é algo perfeitamente justo. O maior fator de desinformação em grupos de WhatsApp não é a sua tia que repassa cura milagrosa com plantas para o Covid. O problema está no batalhão de bolsonaristas que se de maneira oculta se coordenam no espalhamento de memes e vídeos – monetizados no YouTube –, os quais anunciam um plano mirabolante chinês contra o Ocidente e o complô da indústria farmacêutica contra a cloroquina. São eles que tomam de assalto os serviços de mensageria e espalham desinformação em massa com fins políticos e econômicos. É uma rede sócio-técnica, em que a ênfase deveria ser colocada nas condicionantes sociais (ou sócio-econômicas). O problema é que essa coordenação oculta, embora seja imoral e desonesta com outros membros do mesmo grupo de discussão, dificilmente pode ser tipificada como crime sem ferir um conjunto complexo de direitos políticos (sobre a coordenação oculta nos grupos de WhatsApp escrevi sobre em https://policyreview.info/articles/analysis/whatsapp-and-political-instability-brazil-targeted-messages-and-political)

O parágrafo 5o então, para tentar atingir a coordenação, apela para duas instâncias técnicas que articulariam a rede de distribuição artificial: conta automatizada e uma tal tecnologia não autorizada. Ou seja, robôs. Só que essas redes de desinformação, embora contem com auxílios técnicos, não são feitas por robôs. São operadas por humanos, que passam o dia, como bons cabos eleitorais, alimentando infinitamente as redes. Podem até não usar o nome verdadeiro para identificarem-se mas, no limite, isso é um detalhe, já que nesses grandes grupos de WhatsApp todo nome é uma ficção, pois quase ninguém se conhece. Muitos dos números utilizados, inclusive, nem são brasileiros.

Seria o caso então de atacar a conta inautêntica, que é definida no artigo 5o para nunca mais ser citada ao longo do projeto. Só que sua tipificação é igualmente traiçoeira, pois se fala em simular ou assumir a identidade de terceiros. Ora, estamos falando em roubo de identidade? Em uso de imagem alheia para ilustrar perfil? Bem, há relatos de que muitos dos avatares que hoje se distribuem pela Internet não são nem imagens de pessoais reais, mas criações produzidas por softwares de inteligência artificial. Trata-se de criminalizar isso? De novo, não é aí que está o problema.

O que se depreende do texto é que ele projeta um usuário ideal das redes sociais e tenta torná-lo obrigatório por lei. Este seria um sujeito “real”, dono de uma conta “autêntica”, com seu próprio nome no perfil (sem apelidos, por favor), com uma foto sem retoques (esqueça o Photoshop naquelas suas olheiras) e que só fale a Verdade, com v maiúsculo, sem ironias, indiretas ou dúvidas. Não é à toa que em uma das versões da lei se falava em contas verificadas pelas plataformas, com CPF e número de celular cadastrado. A transparência que a lei busca com esses objetivos e definições que listei não é a das práticas das plataformas, que comandam o show com seus algoritmos. É a do usuário, que vai sendo escrutinado por um sistema vigilância em massa e intensiva.

Mas então, o que se pode fazer?

O PL, em sua redação atual, passou a trazer alguns avanços importantes no sentido de cobrar mais transparência das plataformas. Isso foi uma consequência direta e positiva da reação de especialistas frente ao texto original. Nos parágrafos III e IV do artigo 4o, o que contém os objetivos do PL, estão pontos relevantes como “a busca por maior transparência das práticas de moderação de conteúdos postados por terceiros em redes sociais” e a “adoção de mecanismos e ferramentas de informação sobre conteúdos impulsionados e publicitários disponibilizados para o usuário”. São metas importantes para municiar os cidadãos e a sociedade de meios para entender e confrontar melhor a distribuição de conteúdos nas redes sociais.

Mas a definição de impulsionamento, implicada em um dos objetivos, peca por somente olhar um lado do processo. Lê-se, no mesmo artigo 5o, que impulsionamento é a “ampliação do alcance de conteúdos mediante pagamento pecuniário ou valor estimável em dinheiro para as empresas”. Essa é uma definição parcial que acaba por acobertar o impulsionamento mais pernicioso, o algorítmico.

Há tempos sabemos que o que recebemos em nossos feeds, em nossas timelines, linhas do tempo nas redes sociais não corresponde exatamente a todos os conteúdos postados por todas as pessoas que seguimos nesses meios. As plataformas, buscando aumentar o nosso tempo preso na tela e o engajamento produtivo (as respostas furiosas que damos a cada absurdo que lemos), editam a exposição desses conteúdos de modo estratégico. Às vezes insistem em nos mostrar o que já dissemos que não queremos ver, mas também apelam para os nossos instintos mais primitivos ao nos sugerirem conteúdos relacionados que roubam nossa atenção. Incentivam o vício de auto-exposição nas redes, distribuindo mais fortemente os conteúdos daqueles que mais publicam, e que ganham coraçõeszinhos e estrelinhas em retribuição. Já foi provado o papel do mecanismo de sugestão de vídeos do YouTube na formação de extremistas políticos.

Em outro momento, criticando versões anteriores do mesmo PL, falei sobre o ecossistema de desinformação política no WhatsApp (https://nocaute.blog.br/2020/06/01/pl-das-fake-news-e-emenda-pior-que-o-soneto/). É uma estrutura complexa, que mistura produtores de desinformação, que se adéquam ideologicamente à extrema direita, que por sua vez domina uma rede de distribuição de links e conteúdos cuja visualização é recompensada pelas plataformas.

A chave não é o impulsionamento pago, o anúncio que alguém paga para ser distribuído. É claro, quanto mais informação sobre isso melhor, e o PL avança nesse sentido. Mas o impulsionamento também é feito pelas plataformas, que pegam um conteúdo cujo primeiro impulso foi dado pela rede oculta coordenada e o empurram a muitos mais usuários. Pagam ainda uma recompensa por isso ao produtor, a tal monetização. Essa “escolha” das plataformas é, até o que se sabe, politicamente agnóstica, ou seja, tanto faz a qualidade estética ou política do conteúdo, o que ela quer é visualização e engajamento.

Pensar a desinformação no Brasil requer levar em conta, em primeiro lugar, o quanto a atualidade reflete uma herança histórica de um sistema geral de informação profundamente concentrado e elitista. A partir daí, demanda pensar a internet a médio e longo prazo, buscando fiscalizar e controlar as plataformas, que tomaram de assalto a internet livre. O caminho não é o punitivismo que busca “purificar” a rede projetando um usuário autêntico ideal, um humano “real” claramente distinto dos robôs vilões. As plataformas nos instrumentam como pontos de uma rede cibernética, buscando produzir desejos de consumo, sequestrar nossa atenção e explorar nosso trabalho de produção midiática. O que uma boa lei pode fazer é ajudar a desvendar esses mecanismos e a combater os estímulos que nos desumanizam. Vamos torcer para que a Câmara não piore o texto atual, o que pode fazer se resolver se aventurar por tipificações criminais semelhantes às do finado PL Azeredo, que não por acaso foi apelidado de AI-5 digital.

Notícias relacionadas