+
Sem CategoriaÚltimas notícias

Vídeos de YouTube com informações falsas somam milhões de visualizações e alimentam debate político no WhatsApp

FGV-Dapp, que monitora centenas de grupos do aplicativo, levantou os links de vídeos mais compartilhados entre agosto e outubro. G1 encontrou erros e informações falsas em 20% dos mais populares.
Vídeos com mentiras, metade deles postados há mais de um ano e que somam 5 milhões de visualizações no YouTube, estão entre os principais conteúdos de grupos de política no WhatsApp no Brasil.

Essa é a conclusão de uma análise feita pelo G1 com base num monitoramento de 409 grupos de WhatsApp realizado pela Diretoria de Análise de Política Pública da Fundação Getúlio Vargas (FGV-Dapp), que há anos estuda o debate político e a circulação de informações em plataformas digitais.

O uso do Youtube e do Whatsapp para difusão de notícias falsas já havia sido mostrado em agosto de 2019 pelo jornal americano “The New York Times”. Na ocasião, o jornal revelou que vídeos de Youtube com informações falsas sobre o vírus da zika acabavam circulando na íntegra ou em trechos no Whatsapp.

A partir da reportagem do NYT, o G1 procurou a FGV para obter dados que ajudassem a mapear a circulação de notícias falsas. A pedido do G1, a equipe da FGV-Dapp levantou informações sobre o que foi postado entre 15 de agosto e 10 de outubro nos 409 grupos de WhatsApp (veja mais sobre a metodologia no final desta reportagem).

O YouTube se mostrou o site mais popular, com 142 mil dos 410 mil links mais compartilhados (foram 2,6 milhões de mensagens, no total).

Em seguida, a equipe do G1 analisou os 100 links de YouTube mais compartilhados. Eles remetem para 78 vídeos, dos quais 16 – ou 20% – contêm alguma informação falsa ou errada. No WhatsApp, somam 2,5 mil postagens. No YouTube, 5 milhões de visualizações.Parte desses vídeos com mentiras pertencem a 3 canais do YouTube que contam com serviço de assinatura – uma opção para lucrar com os vídeos ofertada pela plataforma a produtores de conteúdo selecionados.

O WhatsApp informou ao G1 ter feito “alterações significativas no produto e trabalhou com parceiros para ajudar a lidar com as consequências prejudiciais da desinformação”. “Embora não exista uma ação única que possa resolver os desafios complexos que contribuem para a desinformação, estamos comprometidos em ajudar a fazer a nossa parte para garantir que o WhatsApp continue sendo uma força para o bem no Brasil”, disse a empresa. O YouTube diz que a desinformação representa um grande desafio e que tem adotado uma série de medidas para lidar com o fenômeno (leia mais abaixo).

Vídeos que induzem a erro

Para além dos vídeos com erros e mentiras, há aqueles que, mesmo sem uma afirmação claramente falsa, podem induzir a confusões.

Por exemplo: um dos vídeos analisados, que não foi incluído na lista de 16 que contêm mentira, mistura realidade (a Agenda 2030 da ONU) com ficção (o filme Matrix) para defender que existe uma estratégia secreta de controle mundial.

Outro sugere que o acordo UE Mercosul ficou paralisado durante 20 anos até ser fechado pelo governo Bolsonaro – embora rodadas de negociação tenham ocorrido em 2016 e 2018, por exemplo.Ruediger destaca que a circulação de mentiras, especialmente em vídeo, prejudica a confiança da população no processo político – em 2020, por exemplo, o Brasil terá eleição para todos os 5.570 municípios. A preocupação com a influência de informações falsas no pleito levou o Tribunal Superior Eleitoral (TSE) a criar um programa de combate à desinformação.

“É extremamente corrosivo da credibilidade das pessoas sobre o processo político. Então, na verdade, você tem uma certa fronteira de impulsionar um certo niilismo na sociedade. No final, não se acredita em nada, e, quando não se acredita em nada, não se acredita nas instituições, em valores, tudo é possível, justificar até o injustificável”, afirma.A maior parte dos 78 vídeos trata da Amazônia, que em agosto – época do início do levantamento – atingia o maior número de focos de incêndio em 9 anos, com 30,9 mil, segundo o Instituto Nacional de Pesquisas Espaciais (Inpe) – crise ambiental que chamou a atenção internacional para o país.

Um desses vídeos é de 2015, e voltou a circular em 26 de agosto deste ano, dois dias depois de o presidente da França, Emmanuel Macron, dizer na cúpula do G7 que a Amazônia é um “bem comum” e pedir “mobilização de potências” contra o desmatamento.

O vídeo, compartilhado em 118 grupos de WhatsApp por 173 usuários diferentes, mostra a retirada de arrozeiros que ocupavam ilegalmente a Terra Indígena Raposa Serra do Sol, em Roraima, em 2009, por ordem do STF, em decisão pública.

As cenas, entretanto, são descritas no vídeo de forma diferente. O título do vídeo afirma que o “presidente Lula manda invadir Roraima secretamente”.

No YouTube, o vídeo responde por 847 mil das 26 milhões que o canal VerdadeFinalRevelada obteve desde 2012.

O G1 tentou falar com os responsáveis pelo canal, mas, no YouTube não há informações sobre quem é responsável por ele, nem contatos. A reportagem encontrou um usuário do Facebook relacionado ao canal e enviou uma mensagem em 7 de janeiro, mas não obteve resposta até a publicação desta reportagem.

Outra mentira, a de que “existem mais de 100 mil ONGs na Amazônia” (são 15 mil entidades sem fins lucrativos na região, na verdade), circula nos grupos de WhatsApp de política desde 22 agosto, mas está no YouTube ainda há mais tempo: o vídeo foi publicado em 2014 no canal Tada Shiro, que não respondeu ao e-mail enviado pela reportagem em 7 de janeiro.

O segundo vídeo mais compartilhado – postados 290 vezes em 119 grupos por 159 pessoas a partir de 22 de agosto – é de um incêndio ocorrido na Região Metropolitana de Belo Horizonte acompanhado da seguinte frase: “Urgente!! Índios confirmam!!! a esquerda bandida e as ONGs estão botando fogo na Amazônia”.É o 2º vídeo mais popular do canal 100noçao, que o YouTuber Rodrigo Alves criou em 2017. Tem 103 mil visualizações, 25% das 517 mil do canal. Só perde para “Perereca vai vai vem vem”, um funk de MC Levin (138 mil visualizações).

A reportagem procurou Alves por e-mail em 7 de janeiro, mas não obteve resposta.

A esquerda é outro tema recorrente. E, entre os vídeos mais postados nos grupos, uma paródia é apresentada como uma instituição real: a Ursal, sigla para União das Repúblicas Socialistas da América Latina, que se popularizou na eleição de 2018 ao ser citada pelo então candidato à Presidência Cabo Daciolo (Patri).

No vídeo, um apresentador não identificado afirma que “muitos projetos que estão sendo aprovados no Congresso Nacional no Brasil, e em vários outros congressos, saíram do Foro de São Paulo, passaram pela Unasul [União das Nações Sul Americanas] e já estão implantados na Ursal”.

A Ursal, entretanto, não existe. Trata-se de um termo irônico criado pela socióloga brasileira Maria Lúcia Victor Barbosa em uma crítica ao Foro de São Paulo, entidade que reúne partidos políticos de esquerda da América Latina.O vídeo saiu do ar pelo menos desde 26 de dezembro. O canal responsável – Brasil a espera de um milagre (sic) – também não está mais disponível no YouTube.Vídeos de YouTube com defesa de pautas inconstitucionais também são muito populares nos grupos de política do WhatsApp.

Um quinto dos grupos monitorados (99 dos 409) receberam um vídeo em que narrador não identificado diz que a “solução” para o Brasil é “uma intervenção que pode ser pacífica, mas a possibilidade é que seja violenta e revolucionária”.

O vídeo, que tem 167 mil visualizações, pertence ao canal SeuTube, que soma 15 milhões de visualizações desde abril de 2015. Não há contatos na página, tampouco no Facebook.

Outro, postado em 91 grupos, é ainda mais popular no YouTube: tem 206 mil visualizações. Com o título “Bolsonaro responde pedido de intervenção militar com: ‘lei de segurança nacional?'” foi postado em 1º de outubro no site e compartilhado no mesmo dia nos grupos de política do WhatsApp.

Além de afirmar que “nunca houve golpe militar” no Brasil – o que é uma mentira – o vídeo defende também uma “intervenção”. A sequência pertence ao canal Intervencionistas do Brasil, que supera 16,9 milhões de visualizações desde 2012.

Em 7 de janeiro, o G1 enviou um e-mail para um endereço disponibilizado no canal (ao lado de um link para um curso online de cupcake). Em resposta, recebeu uma resposta assinada por uma pessoa que se identificou como Tiago.

O texto reafirma que “não houve GOLPE, e sim a vontade de milhares de brasileiros”, elenca uma série de ações que apresenta como conquistas do regime militar e conclui dizendo que “somos e sempre seremos intervencionistas, independentemente do governo”.

Canais com assinantes
É difícil saber quem está por trás de boa parte dos vídeos que contêm mentiras ou defendem pautas extremas. Os narradores não se identificam nas sequências, e nos canais não há identificação dos autores e responsáveis.

Outros, entretanto, são apresentados por personalidades que ganharam notoriedade como comunicadores alinhados a um dos lados do espectro político e que ganham dinheiro com o YouTube.

É o caso do Giro de Notícias, que abriga o vídeo com informações falsas mais visualizado entre os 78 analisados pelo G1: 950 mil das 5 milhões.

Nele, o narrador acusa ONGs de estarem por trás de incêndios na Amazônia e, como prova, mostra o áudio uma mulher indígena sobre um incêndio ocorrido na Região Metropolitana de Belo Horizonte (MG) – o mesmo compartilhado pelo canal 100nocao.

Com 1 milhão de seguidores e 139 milhões de visualizações desde março de 2015, o Giro é um dos 3 canais que têm vídeos com mentiras e que fazem parte do Programa de Parcerias do YouTube.

Para entrar nesse grupo, o YouTube exige que os canais cumpram um conjunto de requisitos, como ter um número mínimo de seguidores e de horas de exibição. A avaliação é feita por sistemas automatizados e por seres humanos. Em troca, a plataforma permite que os responsáveis ganhem dinheiro na plataforma por meio de assinaturas e publicidade.

Por e-mail, os responsáveis pelo Giro de Notícias disseram que “a mulher que fala no áudio foi conferida e autenticada como uma pessoa que conhece como as ONGs trabalham” – sem, entretanto, dar mais detalhes. Eles não quiseram dar entrevista.

WhatsApp e YouTube não têm ações efetivas contra mentiras
O WhatsApp (que pertence ao Facebook) e o YouTube (que é do Google) estão entre as redes sociais mais utilizadas no Brasil. Dados divulgados pelo próprio WhatsApp em 2017 diziam que o aplicativo tinha, à época, mais de 120 milhões de usuários no país. Já o YouTube tem mais de 100 milhões de usuários com mais de 18 anos, segundo a consultoria ComScore.

O WhatsApp afirma, nas políticas de uso da plataforma, que os usuários não devem usar o serviço “de maneira que envolva publicar desinformação, falsas representações ou afirmações errôneas”.

Apesar disso, na mesma página onde estabelece essas políticas, o WhatsApp reitera a criptografia de ponta-a-ponta que existe na plataforma, afirmando que “suas mensagens são suas e nós não podemos ler elas”. Justamente por isso, o controle dessa política é limitado pela empresa.

Em resposta ao G1, o Whatsapp disse ter atualizado “campanha educacional chamada ‘compartilhe alegria, não rumores’ para lembrar as pessoas de não compartilhar informações falsas”.

A empresa cita ainda alterações no produto, como “Etiquetas de encaminhamento” (marcador que destaca quando um usuário recebe uma mensagem que foi encaminhada a ele), inclusive para mensagens frequentemente encaminhadas. “Esses indicadores ajudam as pessoas a saber quando uma mensagem recebida não foi criada pela pessoa que a enviou e incentivamos os usuários a pensar antes de compartilhar as mensagens encaminhadas”, informou o Whatsapp.

Há ainda limite de encaminhamentos de mensagens, como maneira de “lidar com a disseminação da desinformação viral”. O Whatsapp disse ainda que tem banido cerca de 2 milhões de contas de spam por mês e estabelecido configuração de privacidade em grupos, para “impedir que as pessoas sejam adicionadas a grupos indesejados”.

Já o YouTube faz restrição a conteúdos extremistas e discurso de ódio, classificados como “todo conteúdo que promova a violência ou o ódio contra indivíduos ou grupos” com base em características como idade, classe social, deficiência ou etnia.

A plataforma também tem uma política para remoção de conteúdos que promovam revisão de fatos históricos, como negação do Holocausto ou da ditadura no Brasil.

Metodologia
Os pesquisadores da FGV-Dapp monitoraram entre 15 de agosto e 10 de outubro mais de 409 grupos de WhatsApp, aos quais chegaram por meio de convites públicos que circulam na internet ou no próprio aplicativo. Por questões técnicas, não há dados para os dias 4, 14, 15, 16, 17, 18 de setembro e 10 de outubro.

A partir do que foi postado nesses grupos, a FGV-Dapp classificou, a partir do conteúdo existente neles, 345 como de apoiadores do governo do presidente Jair Bolsonaro e 64, de opositores.

Segundo os pesquisadores, o número de grupos de apoiadores do governo monitorado é muito maior porque, nesse segmento, mais grupos são criados e distribuídos do que no segmento da oposição. Houve, inclusive, tentativa de diminuir essa distância, mas o crescimento da base de grupos da oposição é muito lento, segundo a instituição.

O monitoramento da FGV-Dapp, então, levantou que, no período

27 mil usuários participaram dos 409 grupos
Cerca de 2,6 milhões de mensagens foram disparadas
Dessas, 410 mil são links
141 mil ou 30% dos links são de vídeos do YouTube

Como o YouTube se mostrou o site mais popular nos grupos de política do WhatsApp, o G1 decidiu analisar o que havia nos vídeos mais populares. Para tanto, pediu aos pesquisadores do FGV-Dapp a lista de 50 links de YouTube mais postados nos grupos de governo e 50 de oposição.

Os pesquisadores da FGV-Dapp não analisaram que vídeos são esses nem, por consequência, o que há neles. Esse trabalho foi realizado pelos repórteres do G1, que analisaram os 100 links.

O primeiro passo foi identificar a quais vídeos esses links se referiam, se ainda estavam no ar, em quais canais do YouTube foram postados e quando e quantas visualizações possuíam.

Em seguida, a reportagem assistiu a todos os vídeos que ainda estavam disponíveis para analisar o seu conteúdo.

As conclusões desse trabalho foram:

Os links remetem para 78 vídeos que ainda estavam disponíveis no YouTube quando a apuração foi realizada (entre outubro e novembro de 2019)
Desses 78 vídeos, 16 contêm mentiras e 6 pregam fechamento do STF, do Congresso ou intervenção militar.
3 dos canais com vídeos que têm mentiras têm serviço de assinatura
Outros 2 têm publicidade nos vídeos com mentiras
*Estagiária, sob supervisão de Vitor Sorano

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.