• Fernando Giannini

A desinformação e os preconceitos infectam as redes sociais, intencionalmente como acidentalmente

Atualizado: há 6 dias

A mídia social está entre as principais fontes de notícias nos Estados Unidos e em todo o mundo. No entanto, os usuários são expostos a conteúdos de precisão questionável, incluindo teorias da conspiração , clickbait , conteúdo hiperpartidário , pseudo ciência e até mesmo relatórios fabricados de “notícias falsas”.


Não é surpreendente que haja tanta desinformação publicada: spam e fraude online são lucrativos para os criminosos , e o governo e a propaganda política geram benefícios partidários e financeiros. Mas o fato de o conteúdo de baixa credibilidade se espalhar tão rápida e facilmente sugere que as pessoas e os algoritmos por trás das plataformas de mídia social são vulneráveis ​​à manipulação.


Explicando as ferramentas desenvolvidas no Observatório de Redes Sociais.


Nossa pesquisa identificou três tipos de preconceito que tornam o ecossistema de mídia social vulnerável a desinformação intencional e acidental. É por isso que nosso Observatório de Mídias Sociais na Universidade de Indiana está criando ferramentas para ajudar as pessoas a se conscientizarem desses preconceitos e se protegerem de influências externas destinadas a explorá-los.


Viés cerebral


Os preconceitos cognitivos se originam na maneira como o cérebro processa as informações que cada pessoa encontra todos os dias. O cérebro pode lidar apenas com uma quantidade finita de informações, e muitos estímulos recebidos podem causar sobrecarga de informações. Isso por si só tem sérias implicações para a qualidade da informação nas redes sociais. Descobrimos que a competição acirrada pela atenção limitada dos usuários significa que algumas ideias se tornam virais, apesar de sua baixa qualidade - mesmo quando as pessoas preferem compartilhar conteúdo de alta qualidade.


Para evitar ficar sobrecarregado, o cérebro usa vários truques. Esses métodos geralmente são eficazes, mas também podem se tornar vieses quando aplicados em contextos errados.

Um atalho cognitivo acontece quando uma pessoa está decidindo se deseja compartilhar uma história que aparece em seu feed de mídia social. As pessoas são muito afetadas pelas conotações emocionais de um título , embora isso não seja um bom indicador da precisão de um artigo. Muito mais importante é quem escreveu o artigo.


Para combater esse preconceito e ajudar as pessoas a prestar mais atenção à fonte de uma reclamação antes de compartilhá-la, desenvolvemos o Fakey, um jogo de alfabetização de notícias para celular (gratuito no Android e iOS ) que simula um feed de notícias de mídia social típico, com uma mistura de notícias artigos de fontes convencionais e de baixa credibilidade. Os jogadores ganham mais pontos por compartilhar notícias de fontes confiáveis ​​e sinalizar conteúdo suspeito para verificação de fatos. No processo, eles aprendem a reconhecer sinais de credibilidade da fonte, como alegações hiperpartidárias e manchetes carregadas de emoção.

Imagens do jogo Fakey. Mihai Avram e Filippo Menczer


Viés na sociedade


Outra fonte de preconceito vem da sociedade. Quando as pessoas se conectam diretamente com seus colegas, os preconceitos sociais que orientam sua seleção de amigos influenciam as informações que veem. Na verdade, em nossa pesquisa, descobrimos que é possível determinar as inclinações políticas de um usuário do Twitter simplesmente observando as preferências partidárias de seus amigos. Nossa análise da estrutura dessas redes de comunicação partidárias constatou que as redes sociais são particularmente eficientes na disseminação de informações - precisas ou não - quando estão intimamente ligadas e desconectadas de outras partes da sociedade .


A tendência de avaliar a informação de forma mais favorável se vier de dentro de seus próprios círculos sociais cria “câmaras de eco” que estão prontas para manipulação, seja de forma consciente ou não intencional. Isso ajuda a explicar por que tantas conversas online se transformam em confrontos “nós contra eles”.


Para estudar como a estrutura das redes sociais online torna os usuários vulneráveis ​​à desinformação, construímos o Hoaxy , um sistema que rastreia e visualiza a disseminação de conteúdo de fontes de baixa credibilidade e como compete com o conteúdo de verificação de fatos.

Nossa análise dos dados coletados pela Hoaxy durante as eleições presidenciais dos Estados Unidos de 2016 mostra que as contas do Twitter que compartilhavam informações incorretas foram quase totalmente excluídas das correções feitas pelos verificadores de fatos.


Quando analisamos as contas de disseminação de informações incorretas, encontramos um grupo muito denso de contas que retuitavam umas às outras quase que exclusivamente - incluindo vários bots. As únicas vezes em que organizações de verificação de fatos foram citadas ou mencionadas pelos usuários do grupo mal informado foram quando questionaram sua legitimidade ou alegaram o oposto do que escreveram.


Viés na máquina

O terceiro grupo de tendências surge diretamente dos algoritmos usados ​​para determinar o que as pessoas veem online. Tanto as plataformas de mídia social quanto os mecanismos de pesquisa os utilizam. Essas tecnologias de personalização são projetadas para selecionar apenas o conteúdo mais envolvente e relevante para cada usuário individual. Mas, ao fazer isso, pode acabar reforçando os preconceitos cognitivos e sociais dos usuários, tornando-os ainda mais vulneráveis ​​à manipulação.

Por exemplo, as ferramentas de publicidade detalhadas construídas em muitas plataformas de mídia social permitem que os ativistas da desinformação explorem o viés da confirmação, adaptando as mensagens às pessoas que já estão inclinadas a acreditar nelas.

Além disso, se um usuário clica frequentemente em links do Facebook de uma fonte de notícias específica, o Facebook tenderá a mostrar a essa pessoa mais do conteúdo do site . Este chamado efeito de “bolha de filtro” pode isolar pessoas de diversas perspectivas, fortalecendo o viés de confirmação.

Nossa própria pesquisa mostra que as plataformas de mídia social expõem os usuários a um conjunto menos diverso de fontes do que sites de mídia não social como a Wikipedia. Como isso ocorre no nível de uma plataforma inteira, não de um único usuário, chamamos isso de viés de homogeneidade .

Outro ingrediente importante das mídias sociais são as informações que estão em alta na plataforma, de acordo com o que está obtendo mais cliques. Chamamos isso de viés de popularidade porque descobrimos que um algoritmo projetado para promover conteúdo popular pode afetar negativamente a qualidade geral das informações na plataforma. Isso também alimenta o viés cognitivo existente, reforçando o que parece ser popular independentemente de sua qualidade.

Todos esses vieses algorítmicos podem ser manipulados por bots sociais , programas de computador que interagem com humanos por meio de contas de mídia social. A maioria dos bots sociais, como o Big Ben do Twitter, são inofensivos. No entanto, alguns escondem sua natureza real e são usados ​​para intenções maliciosas, como aumentar a desinformação ou criar falsamente a aparência de um movimento popular , também chamado de “astroturfing”. Encontramos evidências desse tipo de manipulação na corrida para as eleições de meio de mandato de 2010 nos Estados Unidos.


Para estudar essas estratégias de manipulação, desenvolvemos uma ferramenta para detectar bots sociais chamada Botometer. O Botometer usa aprendizado de máquina para detectar contas de bot, inspecionando milhares de recursos diferentes das contas do Twitter, como o horário de suas postagens, a frequência com que tweetou e as contas que segue e retuíta. Não é perfeito, mas revelou que até 15 por cento das contas do Twitter mostram sinais de serem bots .

Usando o Botometer em conjunto com Hoaxy, analisamos o núcleo da rede de desinformação durante a campanha presidencial de 2016 nos EUA. Encontramos muitos bots explorando os vieses cognitivos, de confirmação e de popularidade de suas vítimas e os vieses algorítmicos do Twitter.

Esses bots são capazes de construir bolhas de filtro em torno de usuários vulneráveis, alimentando-os com falsas alegações e desinformação. Primeiro, eles podem atrair a atenção de usuários humanos que apóiam um determinado candidato, tweetando as hashtags desse candidato ou mencionando e retuitando a pessoa. Em seguida, os bots podem amplificar alegações falsas difamando os oponentes, retuitando artigos de fontes de baixa credibilidade que correspondam a certas palavras-chave. Essa atividade também faz com que o algoritmo destaque para histórias falsas de outros usuários que estão sendo amplamente compartilhadas.


Compreender vulnerabilidades complexas

Mesmo que nossa pesquisa, e de outras, mostre como indivíduos, instituições e até sociedades inteiras podem ser manipuladas nas redes sociais, ainda há muitas perguntas a serem respondidas. É especialmente importante descobrir como esses preconceitos diferentes interagem entre si, criando vulnerabilidades mais complexas.

Ferramentas como a nossa oferecem aos usuários da Internet mais informações sobre desinformação e, portanto, algum grau de proteção contra seus danos. As soluções provavelmente não serão apenas tecnológicas, embora provavelmente haja alguns aspectos técnicos. Mas eles devem levar em consideração os aspectos cognitivos e sociais do problema.


Autores: Giovanni Luca Ciampaglia e Filippo Menczer Fonte: The Conversation

Artigo original: https://theconversation.com/misinformation-and-biases-infect-social-media-both-intentionally-and-accidentally-97148


Posts recentes

Ver tudo