Como a intolerância política e a desinformação algorítmica propiciam o aumento da polarização afetiva no Brasil
- Soluções em Foco

- 13 de nov. de 2024
- 12 min de leitura
Atualizado: 14 de nov. de 2024
Iniciativas buscam diminuir o discurso de ódio e podem auxiliar na produção de capital social nas mídias sociais
Por Caio Alves e João Pedro Peron

Polarização é um termo comum em discussões políticas brasileiras, visto que a mídia sempre aborda o suposto crescimento desse fenômeno no Brasil. Entretanto, existem diversos tipos de polarização, como a partidária, a ideológica e a afetiva. Esta última, também chamada de emocional, refere-se à animosidade entre identidades rotuladas por grupos opostos, como “comunistas” e “fascistas”, sendo que nem sempre os “adversários” políticos estão inseridos nessas nomenclaturas, conforme descrito no paper intitulado “Existe polarização política no Brasil? Análise das evidências em duas séries de pesquisas de opinião”, escrito pelos docentes Pablo Ortellado, Marcio Ribeiro e Leonardo Zeine, publicado na revista Opinião Pública, do Centro de Estudos da Opinião Pública (CESOP), em 2022.
O aumento da polarização afetiva pela articulação de algoritmos digitais, que induzem os usuários à intolerância política e ao discurso de ódio, é uma questão visível no Brasil. Atrelado a isso, nota-se a desinformação como um elemento fundamental para o funcionamento desse sistema algorítmico. Isso ocorre, pois os algoritmos, como o filtro-bolha, estão relacionados com a visão de pós-verdade, que, segundo o dicionário Oxford (Midgley, 2016), diz respeito a circunstâncias em que os fatos influenciam menos a opinião pública do que apelos à emoção ou às crenças pessoais, de modo que a autenticidade não se refere necessariamente a fatos propriamente ditos, e sim, ao que os usuários entendem como realidade, sendo esta atrelada diretamente a suas ideologias. Pensando sob uma perspectiva política, uma pessoa de direita ou de esquerda entende como verdade aquilo que os portais de direita ou esquerda, respectivamente, publicam, embora possam conter conteúdo falso.
Por exemplo, no Brasil, a desinformação se faz muito presente em eleições, como nas presidenciais de 2018, na qual o candidato Jair Bolsonaro, até então do Partido Social Liberal (PSL), disseminou diversas falácias contra o candidato Fernando Haddad, do Partido dos Trabalhadores (PT), que ficaram nacionalmente conhecidas, como a presença de um “kit gay” nas escolas - que supostamente “ensinaria” as crianças a se tornarem homossexuais - e a “mamadeira de piroca” - que alegaram estar sendo distribuída para crianças, também com tal objetivo. Nota-se que tais informações falsas foram amplamente divulgadas nas mídias sociais, impulsionadas pelos algoritmos, criando um efeito de filtro-bolha, e decisivas para que o candidato conservador atingisse o cargo da Presidência.

Reynaldo Aragon Gonçalves, jornalista e pesquisador nos campos da comunicação política e científica pela perspectiva da desinformação, reflete sobre como a regulação da mídia seria benéfica, pois traria mais transparência para a maneira como os algoritmos dessas big techs operam, além de responsabilizar crimes devidamente, o que não ocorre, por conta da inexistência de propostas regulatórias próprias para a internet. Ele ainda afirma que deveria ser garantida a segurança de dados, tanto para os usuários, quanto para o Estado, visto que assuntos os quais remetem à segurança de governo estariam mais assegurados nesse cenário, bem como dito no trecho de áudio a seguir.
Edivaldo Junior Carvalho, também conhecido como Edi, é jornalista formado pela Universidade Federal de Uberlândia (UFU). Após realizar um licenciamento de 45 dias atuou como coordenador de equipe de rua e coordenador da equipe de mídias sociais, principalmente na parte de interação, na campanha da candidata à Prefeitura de Uberlândia, Dandara Tonantzin (PT), durante as eleições municipais de 2024. “Era um núcleo composto por três pessoas, que se pensava o coordenador de interação e mapeamento, no caso, eu, uma coordenadora de criação, que era a Mari, e uma criadora de estratégias, que é a Paola, ambas também no processo de licenciamento”, explica Carvalho. Segundo ele, as equipes se dividiram em três, sendo elas comunicação de rua, interação e comunicação noturna, de modo que esta última era uma equipe especial para se pensar em eventos noturnos nos quais a candidata estava presente.

Carvalho afirma que eles lidavam com cerca de dez conteúdos falsos ou desinformativos sobre Dandara por dia. “A gente está falando de uma máquina que estava sendo utilizada. Eram coisas absurdas: áudios, mensagens. Teve a do banco que ela teria agredido alguém, teve a que ela teria atropelado pessoas na rua. Teve uma que a Dandara teria pagado dinheiro para o povo vir na vinda do Lula”, enumera.
Além da desinformação propriamente dita, Carvalho fala sobre como essa disseminação de conteúdos falsos foi utilizada para incentivar o ódio contra a candidata do PT, a partir dos algoritmos das mídias sociais, que funcionaram como máquinas para tal fim. “É uma máquina de ódio mesmo. Além da desinformação que estava sendo espalhada, se você entrasse antes nos comentários das fotos, das publicações, das DM’s, tudo enviado era tipo xingando, ameaçando [...] para amedrontar as pessoas”, revela.
Assim como Gonçalves, Carvalho acredita que a regulação das mídias sociais possibilitaria um controle melhor no que concerne à qualidade da informação que circula na internet, de forma que, para o jornalista, quem produz conteúdo nesse ambiente deve ser responsabilizado por aquilo que divulga, visando a derrubada de posts desinformativos. Outro ponto levantado por Carvalho seria a exigência de diploma para atuação como jornalista, visto que, desse modo, essa responsabilização seria ainda mais efetiva, assim como ele afirma no áudio abaixo.
O Projeto de Lei n° 2630/2020, também conhecido como “PL das Fake News”, tem sido apontado como uma possível solução para a moderação das plataformas digitais, com base na questão da desinformação disseminada por usuários a partir de interesses políticos em determinadas pautas, sobretudo ligadas a discurso de ódio. Tal PL está em tramitação desde 2020 e teve início no Senado Federal, tendo sido escrito pelo Senador Alessandro Vieira (PSDB-SE) e relatado pelo deputado federal Orlando Silva (PCdoB – SP). Argumentos pró e contra surgiram a partir da criação desse projeto; os que defendem o PL falam, sobretudo, do impacto que a falta de regulação exerce na divulgação de conteúdos falsos, ao passo que os que condenam falam de uma privação da liberdade de expressão nas mídias sociais.
Parlamentares e cidadãos direitistas muitas vezes se referem ao projeto como “PL da Censura”, por discordarem de suas propostas. O argumento principal utilizado por eles é o de que a lei poderá considerar conteúdos como “discurso de ódio” e até apagar as publicações das mídias sociais, o que configura, segundo eles, um cerceamento da liberdade de expressão no meio cibernético.
Um exemplo que tem relação com esse impasse entre ambas as visões sobre regulamentação da internet é o banimento temporário da plataforma digital X, ocorrido no dia 30 de agosto deste ano, no Brasil, e determinado pelo Ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes, devido ao não cumprimento por parte do X da legislação brasileiras, como a obrigatoriedade de se ter um representante legal da empresa no país e determinações do STF, a exemplo da derrubada de perfis que estavam disseminando desinformação na rede social. No dia 8 de outubro, após 39 dias fora do ar e o pagamento de multas que chegaram a R$28,6 milhões, Moraes autorizou que o X voltasse a funcionar em território brasileiro.
Carvalho acredita que o PL 2630/2020 peca em alguns pontos, como a falta de uma comissão formada por comunicadores - jornalistas, publicitários, profissionais de relações públicas e do marketing etc. -, estudiosos e professores da área de comunicação para debater questões referentes a ele. “Esse projeto é um começo para a gente poder debater essa regulamentação, colocando na ferida das big techs, que vão se responsabilizar. Precisa-se voltar para o fundo nacional de educação para se utilizar como investimento. Tudo isso precisa acontecer”, afirma.
Sistema algorítmico

De acordo com a jornalista espanhola Marta Peirano, autora do livro “O Inimigo Conhece o Sistema”, publicado em 2022 pela Editora Rua do Sabão, as big techs “operam pelo Capitalismo de Dados”, que se refere ao modo como essas grandes empresas de tecnologia coletam as informações dos usuários e as comercializam, estabelecendo um modelo de negócios altamente lucrativo. Peirano diz que, para coletar mais dados dos usuários, é interessante às plataformas que o conteúdo produzido por eles possua engajamento em larga escala; para isso os algoritmos também são úteis, pois impulsionam certos tipos de conteúdos, visando sempre obter o maior alcance possível.
Segundo a jornalista, as mídias sociais, com o objetivo de “prenderem” seus usuários nas plataformas, operam por meio de um filtro-bolha, que entrega para os indivíduos conteúdos ideologicamente concordantes com eles, para que naveguem cada vez mais em seus sites e aplicativos sem serem “contrariados”. Consonante com essa ideia, Carvalho diz que o algoritmo auxilia a propagação de desinformação, visto que, com o fenômeno da pós-verdade, o usuário lê a “informação” e, por concordar ideologicamente com ela, assemelha-a como verdade sem conferir ou pesquisar mais a fundo, compartilhando o conteúdo com contatos que também concordam com a “matéria”, que, por sua vez, irão compartilhar para mais contatos, ocorrendo um efeito exponencial de compartilhamento de desinformação.
Desse modo, é seguida a lógica supracitada de funcionamento do sistema algorítmico, mantendo os usuários em uma “bolha” de concordância para mantê-los na plataforma pela maior quantidade de tempo possível, enquanto seus dados são coletados para serem posteriormente comercializados por essas big techs. “Essas bolhas sempre existiram, mas em uma pressão menor, você na sua casa com sua família, com seus amigos e tudo mais. Hoje, essa proporção é globalizada, e a gente precisa ter responsabilidade, tanto naquilo que a gente faz, quanto naquilo que a gente emite enquanto sujeitos expostos no mundo”, opina Carvalho.
Na perspectiva do filósofo, antropólogo e sociólogo francês Bruno Latour, a sociedade em rede seria composta por “actantes” humanos e não-humanos, com o segundo grupo incluindo os algoritmos, por exemplo. Para Latour, o “actante” age como mediador, ou seja, “é aquele que transforma, traduz, distorce e modifica o significado que ele supostamente transporta”. Assim, os algoritmos teriam esse papel, pois, a partir dos interesses citados acima das grandes empresas donas das plataformas digitais, não ponderam se um determinado conteúdo disseminado em seus domínios pode afetar algo ou alguém.
Uma pesquisa realizada pelo Instituto DataSenado em junho de 2024 com usuários de mídias sociais aponta que a desinformação está muito presente no cotidiano dos eleitores, principalmente em períodos de eleição. Além disso, observa-se o interesse da população em uma regulação para evitar a disseminação de conteúdos falsos nas mídias sociais, tema que é debatido no campo legislativo brasileiro, conforme supracitado. Os resultados de dois entre os questionamentos realizados pelo DataSenado podem ser observados nos infográficos abaixo.


Polarização afetiva

Ortellado, Ribeiro e Zeine afirmam, no paper supracitado, que há uma diversidade de polarizações políticas, como a ideológica - referente às ideologias sobre certos temas ou por próprias posições dentro do espectro político, a exemplo de progressistas e conservadores -, partidária - alusivo ao embate entre partidos políticos, sendo pouco presente no Brasil, segundo os professores, visto que o único partido brasileiro capaz de despertar o sentimento de pertencimento e identidade é o PT - e a afetiva - que, conforme citado anteriormente, é relativo a como a animosidade entre identidades cresce em um ritmo mais acelerado do que a polarização de opiniões. Este último é caracterizado, por exemplo, pelo embate entre direitistas e esquerdistas, que rotulam os adversários como “fascistas” e “comunistas”, distanciando-se politicamente com base nesses termos, ou seja, podem até concordar em alguns pontos, mas mantêm-se afastados por essas rotulações.
Para os docentes, a polarização afetiva iniciou no Brasil em meados de 2014 e 2015, quando diversos protestos estavam ocorrendo no Brasil, como as manifestações a favor do passe livre ao final de 2013 e as contra o aumento de impostos em 2015. Nesse período, ocorreu o crescimento do sentimento antipetista, intensificado ainda mais com o impeachment da ex-presidenta Dilma Rousseff (PT), o que impulsionou a polarização afetiva no Brasil, consolidando-a ainda mais na disputa entre Bolsonaro e Haddad na eleição subsequente, sendo o sentimento contra o PT determinante para que o conservador vencesse em 2018.
Segundo Gonçalves, é possível observar que a polarização afetiva mostra-se muito mais presente nos cenários eleitorais brasileiros, de modo que as difamações e propagação de conteúdos desinformativos pautam-se principalmente nesse campo. Por exemplo, nas eleições presidenciais de 2022, os eleitores do candidato Jair Bolsonaro, agora no Partido Liberal (PL), justificaram seus votos muitas vezes afirmando que o candidato adversário, Luiz Inácio Lula da Silva (PT), iria trazer o comunismo para o Brasil, sendo que nem o político, nem seu partido possuem caracteres comunistas.
Com esse caráter de polarização emocional, nota-se também que as pautas que mais polarizam nas eleições são as de âmbito moral, ou seja, que não envolvem diretamente temas socioeconômicos. Por exemplo, conforme citado anteriormente, as maiores desinformações durante as eleições de 2018, os supostos “kit gay” e “mamadeira de piroca”. Gonçalves aborda sobre essa característica moral das polarizações brasileiras no áudio a seguir.
Um exemplo mais recente envolvendo polarização afetiva é a forma como as forças armadas ficaram divididas em relação aos acontecimentos do dia 8 de janeiro de 2023, em que golpistas e manifestantes bolsonaristas invadiram as sedes dos três Poderes da República, no Distrito Federal, deixando vestígios de vandalismo e depredação no Palácio do Planalto, Congresso Nacional e Supremo Tribunal Federal. De um lado, os militares do exército pró-Bolsonaro, ou seja, que apoiavam os manifestantes e uma possível ação militar a partir do decreto de Garantia da Lei e da Ordem (GLO); de outro, as forças interessadas na manutenção da democracia e na prisão dos golpistas, a partir do decreto de intervenção federal dado pelo então presidente eleito Lula.
Tal polarização é retratada ao final do documentário “8/1 - A Democracia Resiste”, dirigido por Julia Duailibi e Rafael Norton e distribuído pela plataforma de streaming Globoplay. A obra apresenta ambos os “lados” das Forças Armadas se encontrando em frente ao Quartel General do Exército, localizado no Setor Militar Urbano, esperando a decisão pelo desmonte do acampamento e prisão das pessoas, o que ocorreu no dia seguinte, após um debate entre as partes. O vídeo a seguir apresenta alguns recortes desse documentário que trazem tal momento de polarização e tensão na democracia brasileira.
Outra soluções

Além das medidas discutidas anteriormente a respeito da regulação das plataformas digitais, é possível pensar em outras soluções para a problemática da desinformação a partir da detecção de conteúdos suspeitos. Duas técnicas referentes a essa maneira de combate são o CONSPIR e o prebunking.
Dentre o campo de desinformação propagada pelas mídias sociais, existem as teorias da conspiração, que, segundo o professor de Psicologia da Universidade de Bristol, Stephan Lewandowsky, e o pesquisador sênior do Centro de Melbourne para Mudança de Comportamento, John Cook, diferem-se de conspirações convencionais por apresentarem a suspeita absoluta, serem imunes a evidências e contestarem a política dominante, geralmente lidando com possíveis ameaças, enquanto as conspirações convencionais ocorrem em eventos específicos, como quando a Volkswagen fraudou os testes de emissão de seus motores a diesel e a Agência Nacional de Segurança dos Estados Unidos espionou usuários de internet secretamente.
Lewandowsky e Cook dissertam no “Manual das Teorias da Conspiração”, publicado em 2020, sobre como essas teorias podem ser construídas intencionalmente ou amplificadas por razões estratégicas e políticas, influenciando processos eleitorais. Eles apresentam, em seu manual, um passo a passo de sete etapas para ajudar pessoas a detectarem uma teoria da conspiração e, consequentemente, não caírem em desinformações, por meio do acrônimo CONSPIR (em inglês), que se refere aos seguintes passos: Contradição, Suspeita Absoluta, Intenção Nefasta, Algo Deve Estar Errado, Vítima Perseguida, Imune a Evidências e Reinterpretação de Aleatoriedade.
Eles acreditam que a população não saberia somente identificar uma teoria da conspiração, como também as desmistificar, visto que existe um processo adequado para isso ocorrer, sendo este baseado em fatos, fontes, lógica e empatia, embasando sempre com um serviço de checagem composto por links. Esse processo educativo promove o empoderamento “cognitivo” das pessoas, visto que o manual também ensina técnicas de falar diretamente com um teórico da conspiração, para maior eficácia na desmistificação.
Outra medida que auxilia as pessoas a detectarem informações falsas, desinformação e técnicas de manipulação é o denominado prebunking. Essa técnica consiste em avisar ou treinar o leitor a compreender o conteúdo desinformativo antes que ele se depare com ele, de fato, prevenindo que o receptor da informação seja prejudicado. No entanto, não basta apenas dizer para o usuário que ele verá informações incorretas a qualquer momento; na realidade, trata-se de um ensino por meio de exemplos, sobretudo de casos que ocorrem com frequência. De acordo com o Environmental Defense Fund, fundação que se preocupa com pautas científicas, econômicas e ambientais, é preciso criar um “sanduíche da verdade”, ou seja, começar com os fatos, depois apresentar a falácia e a lógica por trás dela (por que mentir sobre isso?), e então terminar com outro fato.
Segundo uma matéria de 2022 do Poynter Institute for Media Studies, uma organização sem fins lucrativos que tem o próprio portal de notícias e trabalha com “fact checking” e combate à desinformação, um estudo publicado pela Science Advances e liderado por pesquisadores de Cambridge em parceria com a Jigsaw - um braço de pesquisa do Google -, o prebunking é uma forma eficaz de combater as técnicas de propaganda no centro da desinformação e da informação enganosa.
Nessa pesquisa, milhões de usuários do YouTube foram expostos a clipes de 90 segundos que explicavam técnicas de manipulação, a exemplo de alarmismo, bode expiatório e brincar com emoções. Posteriormente, essas pessoas completaram pesquisas de acompanhamento, que testaram sua capacidade de determinar se uma técnica de manipulação foi implementada. Os pesquisadores descobriram que os usuários que assistiram aos videoclipes com linguagem emocional tiveram de 1,5 a 1,67 vezes mais probabilidade de reconhecer a técnica de falsificação no futuro, isto é, quando se deparar novamente com algum conteúdo desinformativo, do que o grupo de controle. Além disso, usuários que assistiram aos videoclipes de falsas dicotomias tiveram quase duas vezes mais probabilidade de reconhecer a técnica do que o grupo de controle. Por fim, os pesquisadores também identificaram que usuários que assistiram ao vídeo de incoerência foram duas vezes mais eficientes em identificar a técnica futuramente.
Autor principal do estudo e pesquisador de pós-doutorado do Social Decision-Making Lab em Cambridge, Jon Roozenbeek afirma, em entrevista ao Poynter: “O efeito da inoculação foi consistente entre liberais e conservadores. Funcionou para pessoas com diferentes níveis de educação e diferentes tipos de personalidade. Esta é a base de uma inoculação geral contra a desinformação.”


Comentários