Plataformas entram em um cenário de maior pressão e com novas regras, mas com atuação incerta
No centro de embates políticos no Brasil, EUA e União Europeia, as big techs devem entrar nas eleições municipais de 2024 em um cenário de maior pressão.
Enquanto os EUA pressionam o TikTok e os europeus têm atuado para regular as plataformas de modo amplo, no Brasil é a Justiça Eleitoral que aperta o cerco às empresas, sendo inclusive alvo de críticas por avançar em relação ao que estabelece o Marco Civil da Internet.
Da parte das empresas, que têm sido reativas a uma regulação no Congresso, não há evidências de que elas devam atuar de modo mais efetivo para combater desinformação nas eleições. Ao mesmo tempo, promovem mudanças internas que podem ter impacto negativo nessa tarefa.
Assim como a apropriação do discurso contra a censura pela direita, a movimentação das big techs reflete um cenário global de maior escrutínio público, no ano em que metade da população mundial passa por eleições.
A realização de pleitos nacionais em países como EUA e Índia amplia as expectativas em torno das empresas, afirma Bruna Martins dos Santos, gerente de campanhas global da organização Digital Action.
“Vivemos um ponto de inflexão, no qual parte da sociedade passou a enxergar as plataformas como corresponsáveis pela erosão democrática em boa parte do mundo”, diz ela, que também integra a Coalizão Direitos na Rede.
Após regulamentação legislativa, como ocorrido na União Europeia, e medidas da Justiça Eleitoral, ela aponta que a dúvida é se as empresas vão cumprir tais regras.
Outra mudança de peças no tabuleiro é a saída do ministro do STF (Supremo Tribunal Federal) Alexandre de Moraes da presidência do TSE (Tribunal Superior Eleitoral).
A principal mudança aprovada pela corte neste ano diz que as empresas podem ser responsabilizadas solidariamente em caso de não removerem conteúdos e contas imediatamente em caso de condutas antidemocráticas ilegais, fatos inverídicos ou gravemente descontextualizados que “atinjam a integridade do processo eleitoral”, discurso de ódio, entre outros itens.
Até aqui, a não ser em caso de ordem judicial, a ação de moderação das plataformas sobre conteúdo eleitoral estava ancorada em suas próprias regras. Um cenário que leva também a críticas não só quanto a lacunas nas políticas globais das redes, mas também a se a sua aplicação seria consistente.
Em 2022, a dez dias do segundo turno, o TSE aprovou nova regra, ampliando o poder de a corte determinar derrubada de conteúdos mesmo sem provocação dos partidos ou do Ministério Público cuja atuação foi marcada pela inação, mesmo frente às amplas campanhas de desinformação contra as urnas.
A partir do alastramento de acampamentos golpistas, a regra foi usada para suspender perfis e grupos de conversa.
Em 2024, ao mesmo tempo em que se aponta para uma maior possibilidade de sanções, o escrutínio quanto à ação de moderação das redes também deverá ocorrer com menos ferramentas de monitoramento à disposição de pesquisadores, de entidades e da imprensa.
O X (antigo Twitter), por exemplo, deixou de oferecer acesso gratuito a sua API e a Meta, dona do Facebook e Instagram anunciou o fim do Crowdtangle. As duas ferramentas permitiam o monitoramento externo de dados das redes. O TikTok já não oferecia esse tipo de recurso.
O professor de comunicação da Universidade Federal Fluminense Viktor Chagas faz críticas a esse movimento das plataformas, que ele vê também como uma reação a ações e tentativas de regulação. “Elas de alguma forma se encontraram vulneráveis na sua condição e por isso resolveram se tornar ainda mais opacas do que já eram”, diz.
No contexto brasileiro para 2024, ele afirma que, por um lado, o fato de as eleições serem municipais tira em parte o peso das redes para campanha, já que em cidades pequenas o corpo a corpo tende a ser mais importante. De outro, vê o uso das plataformas este ano por lideranças já visando 2026.
“Estamos atravessando um período de ainda muita incerteza do que vai acontecer no segundo semestre”, diz.
Este ano também será o primeiro pleito no Brasil depois do lançamento das comunidades no WhatsApp, recurso que teve início postergado para depois da disputa eleitoral de 2022, o que chegou a ser recomendado à época pela Procuradoria da República em São Paulo.
Outra nova regra do TSE é a obrigatoriedade de bibliotecas de anúncios e posts impulsionados de caráter político eleitoral, com uma definição ampla do que deve ser disponibilizado.
Na última semana, o Google anunciou que deixaria de permitir anúncios políticos. Um dos motivos seria o alto custo e complexidade para moderação com base na determinação da corte. O X, por sua vez, que antes proibia impulsionamento político, passou a permitir depois de ser adquirido pelo empresário Elon Musk.
Outro fator apontado por especialistas como fundamental para o combate à desinformação é o investimento em equipes de moderação e segurança, especialmente com conhecimento da língua e contextos locais.
Desde a última eleição, no entanto, diversas empresas têm feito cortes expressivos em seus times, atingindo diferentes áreas.
Por vários motivos, recai sobre o X o maior grau de incerteza, avaliam especialistas da área.
No início do mês, Musk iniciou uma série de ataques a Alexandre de Moraes, a quem chamou de censor e ditador em razão de ordens de bloqueio de perfis na rede. O bilionário prometeu ainda desobedecer a Justiça e reabrir as contas.
Apesar de não ter concretizado essa ameaça, ordens do ministro enviadas ao X foram divulgadas por uma comissão no Congresso dos EUA. Junto com a retórica de Musk, isso tem influenciado o debate político ao dar combustível à narrativa do bolsonarismo de que há censura a seus porta-vozes.
Em sentido contrário, há a leitura de especialistas de que a decisão do Congresso americano que pode levar ao banimento do TikTok pode ter reflexo indireto no debate do Brasil ao legitimar o discurso em favor de bloqueios.
Apesar de alguns problemas serem gerais, Yasmin Curzi, professora da FGV Direito Rio, entende que nem todas as empresas devem ser colocadas “no mesmo arcabouço”, adicionando que, no caso de Musk, estão envolvidos interesses político-ideológicos e não simplesmente comerciais.
Pouco otimista em relação a quanto se avançou no combate à desinformação até aqui, ela aponta que ao se olhar mais para a remoção de conteúdo, corre-se o risco de gerar mais atenção e apoio para grupos que se dizem censurados.
“A gente não está olhando para essa roda que está girando esse engajamento”, diz, defendendo mais transparência sobre os algoritmos de recomendação das redes.