Pular para o conteúdo
O problema da extrema direita no Facebook
Extrema Direita

O problema da extrema direita no Facebook

Grupos e indivíduos de extrema direita continuam a usar as plataformas do Facebook para promover o ódio, as ameaças e intimidações e os apelos à violência de base religiosa.

Por

Tempo de leitura: 14 minutos.

Via Far Right Observatory

Foram semanas preocupantes para a liderança do Facebook, pois o gigante da tecnologia enfrentou uma barragem de críticas de vários ângulos. Isto incluiu pesquisadores, juízes dos EUA, políticos que procuravam apresentar legislação antitruste e, mais recentemente, trabalhadores dentro da própria organização que atuavam como denunciantes.

O Wall Street Journal (WSJ) relatou extensivamente durante o último mês de setembro. Sua recente série de reportagens sob o título Facebook Files, foi impulsionada por vazamentos substanciais de funcionários do Facebook, descontentes com a liderança organizacional do Facebook sob Mark Zuckerberg, no combate aos danos sociais resultantes de pessoas que utilizam os produtos da organização, bem como uma persistente falta de transparência sobre como as decisões são tomadas.

O WSJ descobriu que “uma e outra vez, os documentos mostram, os pesquisadores do Facebook identificaram os efeitos nocivos da plataforma… Uma e outra vez, apesar das audiências no Congresso, de suas próprias promessas e de numerosas exposições na mídia, a empresa não as consertou. Os documentos oferecem talvez a imagem mais clara até agora de quão amplamente os problemas do Facebook são conhecidos dentro da empresa, até o próprio chefe executivo [Mark Zuckerberg]”.

Os documentos vazados para o WSJ demonstram que internamente o Facebook está plenamente consciente dos danos e prejuízos que muitos usuários enfrentam. O mais alarmante é que o WSJ relatou que uma apresentação vazada incluiu a observação de que “entre os adolescentes que relataram pensamentos suicidas, 13% dos usuários britânicos e 6% dos usuários americanos rastrearam o desejo de se matar até o Instagram”.

O recuo em torno desses relatórios forçou um anúncio de que a empresa está fazendo uma pausa para lançar um produto Instagram destinado especificamente a crianças com menos de 13 anos de idade. Os políticos americanos pediram que os planos para o chamado “Instagram infantil” fossem totalmente abandonados, em vez de simplesmente interrompidos.

Adam Mosseri, chefe da Instagram, declarou: “Ainda acredito firmemente que é bom construir uma versão do Instagram que seja segura para os tweens [crianças de 10 a 12 anos], mas queremos ter tempo para conversar com os pais, pesquisadores e especialistas em segurança e chegar a um maior consenso sobre como avançar”.

Os comentários da Mosseri sobre a Instagram e o Facebook, que estão tomando tempo para conversar com pesquisadores e especialistas em segurança, estão em desacordo com as recentes ações do Facebook para minar deliberadamente a pesquisa independente e matar o trabalho, olhando para os efeitos negativos que a empresa tem nas sociedades em todo o mundo.

Facebook e Mianmar

Tais impactos dificilmente poderiam ser mais fortes do que a experiência do genocídio da população Rohingya em Mianmar. As falhas do Facebook que alimentaram o massacre da minoria muçulmana Rohingya pelo estado de Mianmar estão bem documentadas. Veja aqui, aqui, e aqui. Na semana passada, um tribunal americano decidiu a favor do estado africano Gâmbia, que estava buscando dados do Facebook para ajudá-lo a levar um caso contra Mianmar à Corte Internacional de Justiça (CIJ) por supostas violações da Convenção de Genocídio contra o povo Rohingya.

Os dados pelos quais a Gâmbia foi a tribunal incluem investigações internas do Facebook sobre o papel e as respostas da organização, bem como material agora eliminado de postagens e páginas que o Facebook acabou banindo em 2018. Um juiz americano disse que os argumentos legais que o Facebook usou em torno da privacidade, na sua tentativa de não revelar informações “estariam jogando fora a oportunidade de entender como a desinformação gerou o genocídio do Rohingya e impediria um julgamento no CIJ” e que “assumir o manto dos direitos de privacidade é rico em ironia. Os sites de notícias têm seções inteiras dedicadas ao sórdido histórico de escândalos de privacidade do Facebook”.

As reações tardias do Facebook em 2018 à distribuição organizada de ódio e incitação à violência em sua plataforma coincidiram com um relatório de Marzuki Darusman, Presidente da Missão Internacional Independente de Busca de Fatos das Nações Unidas (FFM) sobre Myanmar em 2018. O relatório afirmava isso:

“Se alguém procurasse fomentar deliberadamente conflitos e extremismos, os eventos em Mianmar poderiam servir como um manual passo a passo. Desumanizar uma população. Chamá-los todos de terroristas. Privá-los de todos os direitos. Segregá-los e atacá-los. Violá-los e matá-los. Concentrem-os em campos de deslocados ou expulsem-nos. E proteger os assassinos da justiça. Estas medidas podem, e quase certamente serão, aprendidas e implantadas em outros países contra outras populações”.

Estimativas conservadoras colocam o número dos muçulmanos Rohingya assassinados em mais de dez mil enquanto mais de 750.000 fugiram ao longo dos anos. Enquanto o longo arco de terrorismo desumanizador e estatal contra a população minoritária Rohingya começou antes do Facebook entrar no mercado de Myanmar, o FFM de Marzuki Darusman descobriu que o Facebook “desempenhou um papel extenso” e “contribuiu substancialmente para o nível de acrimônia e dissensão e conflito” em ataques fermentadores. Em Mianmar, o FFM observou que “o Facebook é a Internet”. No relatório de 2018, o Facebook recebe toda a sua própria subseção e é chamado a fornecer todo o apoio possível para investigar o genocídio de Rohingya muçulmano.

O tribunal dos EUA esta semana, decidiu contra o Facebook e em apoio ao caso pela Gâmbia no CIJ. Shannon Raj Singh, advogado americano especializado em direito penal internacional e na prevenção de atrocidades em massa, declarou que a decisão demonstrou “um dos principais exemplos da relevância da mídia social para a prevenção e resposta às atrocidades modernas”.

“Para todos os seus dados, parece que foi nossa conexão pessoal com membros sênior de sua equipe que levou a que o assunto fosse tratado”.

A inação do Facebook

As organizações da sociedade civil tentaram repetidamente levar o Facebook a agir desde 2013. Os direitos humanos e outros grupos da sociedade civil escreveram uma carta aberta a Mark Zuckerberg em 2018 em resposta a uma entrevista que Zuckerberg fez com a Vox na qual citou as respostas do Facebook em Mianmar como um caso positivo para o Facebook. Esta carta aberta foi publicada na época em que o relatório do FFM foi apresentado à ONU.

É crucial notar que o Facebook estava efetivamente usando os autores desta carta aberta, todas as organizações locais de direitos humanos, como moderadores terceirizados, afirma a carta:

“Como representantes das organizações da sociedade civil de Mianmar e das pessoas que levantaram a ameaça do Facebook Messenger para a atenção de sua equipe, ficamos surpresos ao ouvi-lo usar este caso para elogiar a eficácia de seus ‘sistemas’ no contexto de Mianmar. Do nosso ponto de vista, este caso exemplifica o oposto de moderação efetiva: revela uma dependência excessiva de terceiros, a falta de um mecanismo adequado para a escalada de emergência, uma reticência em envolver as partes interessadas locais em torno de soluções sistêmicas e uma falta de transparência.

Longe de ser um incidente isolado, este caso é mais um exemplo do tipo de questões que vêm sendo discutidas no Facebook em Mianmar há mais de quatro anos e da resposta inadequada da equipe do Facebook. Portanto, é instrutivo examinar este incidente do Facebook Messenger com mais detalhes, particularmente dado o seu envolvimento pessoal com o caso.

Em sua entrevista [com a Vox], você se refere aos seus ‘sistemas’ de detecção. Acreditamos que seu sistema, neste caso, fomos nós – e estávamos longe de ser sistemáticos. Identificamos as mensagens e as encaminhamos a sua equipe via e-mail no sábado, 9 de setembro, horário de Mianmar. Até então, as mensagens já vinham circulando amplamente há três dias.

A plataforma Messenger (pelo menos em Mianmar) não oferece uma função de relatório, o que teria permitido que as pessoas envolvidas sinalizassem as mensagens para você. Embora estas mensagens perigosas tenham sido empurradas deliberadamente para um grande número de pessoas – muitas pessoas que as receberam dizem não conhecer pessoalmente o remetente – sua equipe parece não ter percebido o padrão. Para todos os seus dados, parece que foi nossa conexão pessoal com os membros sênior de sua equipe que levou a questão a ser tratada.”

“Vá até mim no Facebook. Todas as informações estão lá”

Mais perto de casa, os sites de notícias na Irlanda têm coberto atividades de extrema direita nas últimas semanas, muitas delas mencionando brevemente o papel do Facebook como ferramenta organizadora e amplificadora do racismo, homofobia e anti-semitismo. Embora dada a quase completa ausência de qualquer cultura de jornalismo de tecnologia crítica na Irlanda, é compreensível a razão. Mas o que foi relatado é ilustrativo da dinâmica em jogo

Um proeminente manifestante anti-bloqueio que antes usava seu perfil no Facebook para livestream de um apelo à violência em massa contra pessoas de fé judaica foi abordado em casa por um jornalista do Sunday World. Enquanto se recusava a ser entrevistado, ele disse ao repórter: “Vá até mim no Facebook”. Todas as informações estão lá”.

E de fato, tudo está lá. Ele sabe disso porque está usando o Facebook e sem a distribuição gratuita que o Facebook proporciona, seu ódio teria muito menos significado e muito menos poder. Mas os limites e as decisões em torno de quem consegue espalhar o ódio no Facebook e quem não o consegue, estão inteiramente à altura do Facebook.

O Facebook removeu um vídeo deste perfil de pessoas recentemente. Ele incluía um apelo extremamente violento para que todas as pessoas de fé judaica fossem “eliminadas”. As exclusões só aconteceram depois que o pessoal sênior do Facebook foi abordado por uma organização comunitária. As pontuações de outros vídeos do livestream permanecem tanto no Facebook quanto no Instagram da mesma pessoa.

Nesses vídeos há ameaças a jornalistas e organizações jornalísticas, bem como teorias de conspiração anti-semitas e falsas acusações de vacinação forçada de crianças por professores e funcionários do governo.

O FRO perguntou ao Facebook se um indivíduo ou um grupo que chamasse pessoas de uma determinada fé para serem “exterminadas”, um claro incitamento ao ódio, resultou em uma proibição da plataforma. E para esclarecer sob quais circunstâncias o incitamento ao ódio, ou os apelos à violência com base religiosa, nos produtos do Facebook não leva a uma proibição.

No momento da publicação, mais de 48 horas depois, não recebemos uma resposta prometida da sede do Facebook em Dublin.

Em outro exemplo de abordagem frouxa do Facebook para moderar as ameaças de violência em suas plataformas, o FRO viu que outro organizador proeminente de extrema direita fez ameaças de violência a trabalhadores comunitários. Durante um livestream, ele encorajou a violência contra um indivíduo e contra os trabalhadores, dizendo “todos eles deveriam estar balançando das árvores”.

Nossa pesquisa mostra que a página deste indivíduo no Facebook tem mais de quinhentos vídeos. Isto inclui entrevistas com supremacistas brancos, incitando ataques a trabalhadores comunitários e de desenvolvimento, anti-semitismo persistente, homofobia e transfobia e etno-nacionalismo. Há também incitação racista contra políticos nomeados que ele considera que não são “irlandeses de verdade”. A página do Facebook também fornece um fluxo de renda, pois inclui um link proeminente de volta para uma loja que vende mercadorias de marca.

Este indivíduo já foi inicializado na plataforma de streaming de vídeo YouTube por violações repetitivas dos termos e condições. Isto tem um impacto indiscutível na audiência e no financiamento, embora seu pivô para as transmissões de vídeo do Facebook tenha mantido um fluxo de transmissão gratuita para propaganda de extrema direita. Durante o último ano, estes vídeos têm contido persistentemente informações falsas em torno do Covid 19 e vacinas. Cada um deles é uma violação dos termos de uso do Facebook, mas nossa pesquisa mostra que a página acumulou mais de 3,5 milhões de visualizações.

O Facebook só removeu a chamada de vídeo para pessoas enforcadas quando elas foram informadas por uma organização da sociedade civil irlandesa. O restante do conteúdo permanece no ar. No último livestream, cheio de falsas alegações sobre vacinas, o indivíduo declarou que se “eles não estão chamando você de um teórico da conspiração nazista de extrema direita, então você não está do nosso lado”.

O FRO perguntou ao Facebook se a emissão de ameaças de violência e a percepção de ameaças de morte contra indivíduos ou grupos de pessoas nomeadas constituía uma violação dos termos de uso do Facebook, na medida em que justificaria uma proibição permanente. E em que circunstâncias tais ameaças não justificam uma proibição.

Novamente não recebemos nenhuma resposta a estas perguntas do Facebook.

Mais uma vez nos surpreende que seja deixado às pequenas organizações comunitárias com poucos recursos para fazer o trabalho pesado de uma empresa que é mais poderosa e mais rica do que a maioria dos estados nacionais do mundo.

Vale a pena parar nessa linha na carta aberta enviada a Mark Zuckerberg por grupos comunitários em Mianmar três anos atrás.

Para todos os seus dados, parece que foi nossa conexão pessoal com os membros sênior de sua equipe que levou a que o assunto fosse tratado.

É assim que os negócios são feitos. O Facebook fala muito sobre conectar as pessoas. O Facebook argumenta que não é uma editora, e o faz apenas para que não possa ser responsabilizado pelos danos decorrentes do que acontece em suas plataformas, como outras editoras.

Pior ainda, agora ele está sistematicamente fechando as pesquisas independentes. As empresas de tabaco não podem decidir quem faz pesquisas sobre o tabagismo. As empresas de mídia social não devem ter o poder de decidir quem as estuda.

O Facebook é uma empresa de trilhões de dólares e é utilizada por 2,9 bilhões de pessoas. Este número está além da compreensão individual. O CEO Mark Zuckerberg possui pessoalmente 58% de suas ações com direito a voto. Mais de 54 bilhões de dólares fluíram para a empresa de anunciantes no primeiro semestre de 2021. 54 bilhões de dólares é mais do que o PIB da maioria das nações do planeta.

Este número está além da compreensão individual. Mas o FRO e muitos outros podem compreender plenamente os impactos que os oligopólios tecnológicos desregulamentados e descontrolados têm.

Zuckerberg, agora uma das pessoas mais ricas do mundo e, sem dúvida, uma das mais poderosas do mundo, permanece firmemente no controle do Facebook. E, no entanto, simultaneamente, ele e o Facebook não são responsáveis por seus impactos, seja sobre um terço das adolescentes do Reino Unido que atribui pensamentos suicidas ao Instagram, aos Rohingya em Mianmar, sobre a qual tanta violência foi acessada, organizada através do Facebook, ou à comunidade judaica na Irlanda, que certamente tem que se perguntar como os indivíduos podem chamar para serem exterminados, e ainda manter o acesso irrestrito ao Facebook e ao Instagram, como se a remoção de um vídeo fosse, de alguma forma, uma ação proporcional ou uma demonstração de realmente cuidado.

Está além do escopo desta peça atribuir como ou porque o Facebook é como ele é, ou porque ele faz o que faz. E ainda assim.

Claramente, a questão dos danos do Facebook não é uma questão de recursos e poder limitados.

Talvez seja hora de olharmos ao contrário e perguntarmos se os recursos e o poder quase ilimitados do Facebook com responsabilidade zero, incluindo sua normalização e distribuição de propaganda de extrema direita, é algo que precisa ser reinado com urgência.

Você também pode se interessar por