Facebook alimentou discurso de ódio na Índia ao negligenciar o resto do mundo

Uma coleção de documentos internos mostra que o Facebook não investiu em protocolos de segurança importantes no maior mercado da empresa.

Por Cat Zakrzewski, Gerrit De Vynck, Niha Masih e Shibani Mahtani do Washington Post


Em fevereiro de 2019, pouco antes das eleições gerais na Índia, dois funcionários do Facebook configuraram uma conta fictícia para entender melhor a experiência de um novo usuário no maior mercado da empresa. Eles fizeram o perfil de uma mulher de 21 anos, residente no norte da Índia, e começaram a rastrear o que o Facebook mostrava a ela.

No início, seu feed se encheu de pornografia soft-core e outras, mais inofensivas, tarifa. Em seguida, a violência explodiu na Caxemira, o local de uma disputa territorial de longa data entre a Índia e o Paquistão. O primeiro-ministro indiano Narendra Modi, em campanha pela reeleição como um homem forte nacionalista, desencadeou ataques aéreos de retaliação que a Índia alegou ter atingido um campo de treinamento terrorista.

Logo, sem nenhuma orientação do usuário, a conta do Facebook foi inundada com propaganda pró-Modi e discurso de ódio antimuçulmano. “Trezentos cães morreram agora, diga viva a Índia, morte ao Paquistão”, disse um post, sobre um fundo de rostos de emojis. “Estes são cães paquistaneses”, dizia a legenda traduzida de uma foto de cadáveres alinhados em macas, hospedada no News Feed.

Um memorando interno do Facebook, revisado pelo The Washington Post, chamou o teste da conta fictícia de um “pesadelo de integridade” que destacou a vasta diferença entre a experiência do Facebook na Índia e o que os usuários americanos normalmente encontram. Um funcionário do Facebook observou o número impressionante de cadáveres.

Mais ou menos na mesma época, em um dormitório no norte da Índia, a 12.800 quilômetros da sede da empresa no Vale do Silício, um estudante da Caxemira chamado Junaid disse ao The Post que observou sua página real no Facebook inundar com mensagens de ódio. Um disse que os caxemires eram “traidores que mereciam ser fuzilados”. Alguns de seus colegas usaram essas postagens como fotos de perfil no WhatsApp do Facebook.

Junaid, que falou com a condição de que apenas seu primeiro nome fosse usado por medo de retaliação, lembrou-se de se amontoar em seu quarto uma noite enquanto grupos de homens marchavam do lado de fora cantando a morte aos caxemires. Seu telefone zumbia com notícias de estudantes da Caxemira sendo espancados nas ruas - junto com mensagens mais violentas no Facebook.

“O ódio se espalha como um incêndio no Facebook”, disse Junaid. “Nenhuma das contas de discurso de ódio foi bloqueada.”

Apesar de todos os problemas do Facebook na América do Norte, seus problemas com discurso de ódio e desinformação são dramaticamente piores no mundo em desenvolvimento. Documentos internos da empresa tornados públicos no sábado revelam que o Facebook estudou meticulosamente sua abordagem no exterior - e estava bem ciente de que a moderação mais fraca em países que não falam inglês deixa a plataforma vulnerável a abusos por parte de malfeitores e regimes autoritários.

Esta história é baseada nesses documentos, conhecidos como Facebook Papers, que foram divulgados à Comissão de Valores Mobiliários pela denunciante Frances Haugen, e compostos por pesquisas, apresentações de slides e postagens no quadro de mensagens da empresa — algumas relatadas anteriormente pelo Wall Street Diário. Também se baseia em documentos revisados independentemente pelo The Post, bem como em mais de uma dúzia de entrevistas com ex-funcionários do Facebook e especialistas da indústria com conhecimento das práticas da empresa no exterior.

As divulgações da SEC, fornecidas ao Congresso de forma redigida pelo consultor jurídico de Haugen e revisadas por um consórcio de organizações de notícias, incluindo o The Post, sugerem que, à medida que o Facebook avançava para o mundo em desenvolvimento, não investia em proteções comparáveis.

De acordo com um resumo de 2020, embora os Estados Unidos representem menos de 10 por cento dos usuários diários do Facebook, o orçamento da empresa para combater a desinformação foi fortemente direcionado para a América, onde 84 por cento de sua “cobertura global por idioma/competência” foi alocada. Apenas 16% foram destinados ao “Resto do Mundo”, um agrupamento entre continentes que incluía Índia, França e Itália.

O porta-voz do Facebook, Dani Lever, disse que a empresa havia feito “progresso” e tinha “equipes dedicadas trabalhando para impedir o abuso em nossa plataforma em países onde há risco elevado de conflito e violência. Também temos equipes globais com falantes nativos que revisam conteúdo em mais de 70 idiomas, juntamente com especialistas em questões humanitárias e de direitos humanos.”

Muitas dessas adições ocorreram nos últimos dois anos. “Contratamos mais pessoas com experiência em idioma, país e tópico. Também aumentamos o número de membros da equipe com experiência de trabalho em Mianmar e na Etiópia para incluir ex-trabalhadores de ajuda humanitária, socorristas e especialistas em políticas”, disse Lever.

Enquanto isso, na Índia, disse Lever, a “conta de teste hipotética inspirou análises mais profundas e rigorosas de nossos sistemas de recomendação”.

Globalmente, existem mais de 90 idiomas com mais de 10 milhões de falantes. Só na Índia, o governo reconhece 122 idiomas, de acordo com seu censo de 2001.

Na Índia, onde o Partido Hindu-nacionalista Bharatiya Janata — parte da coalizão por trás da ascensão política de Modi — usa retórica inflamada contra a minoria muçulmana do país, desinformação e discurso de ódio podem se traduzir em violência na vida real, tornando o risco desses protocolos de segurança limitados particularmente alto.

Os pesquisadores documentaram o BJP usando a mídia social, incluindo o Facebook e o WhatsApp, para fazer campanhas de propaganda complexas que os estudiosos dizem que jogam com as tensões sociais existentes contra os muçulmanos.

Membros da Next Billion Network, um coletivo de atores da sociedade civil que trabalham em danos relacionados à tecnologia no sul global, alertaram as autoridades do Facebook nos Estados Unidos que o discurso de ódio não controlado na plataforma poderia desencadear violência comunal em larga escala na Índia, em múltiplos reuniões realizadas entre 2018 e 2019, segundo três pessoas com conhecimento do assunto, que falaram sob condição de anonimato para descrever assuntos delicados.

Apesar das garantias do Facebook de que aumentaria os esforços de moderação, quando os tumultos eclodiram em Delhi no ano passado, as chamadas à violência contra os muçulmanos permaneceram no site, apesar de serem sinalizadas, de acordo com o grupo. Imagens horríveis, alegando falsamente retratar a violência perpetrada por muçulmanos durante os distúrbios, foram encontradas pelo The Post. O Facebook os rotulou com uma checagem de fatos, mas eles permaneceram no site no sábado.

Mais de 50 pessoas foram mortas no tumulto, a maioria delas muçulmanas.

“Eles ouviram, disseram, disseram e eles não fizeram absolutamente nada sobre isso”, disse um membro do grupo que compareceu às reuniões. “A raiva [do sul global] é tão visceral em como eles vêem nossas vidas descartáveis.”

O Facebook disse que removeu conteúdo que elogiava, apoiava ou representava a violência durante os distúrbios em Delhi.

A Índia é a maior democracia do mundo e uma potência econômica em crescimento, tornando-se mais uma prioridade para o Facebook do que muitos outros países no sul global. Smartphones de baixo custo e planos de dados baratos levaram a uma revolução nas telecomunicações, com milhões de usuários indianos ficando online pela primeira vez a cada ano. O Facebook tem feito grandes esforços para capturar esses clientes e seu aplicativo de assinatura tem 410 milhões de usuários de acordo com o governo indiano, mais do que toda a população dos Estados Unidos.

A empresa ativou grandes equipes para monitorar a plataforma durante as principais eleições, despachou representantes para se engajarem com ativistas e grupos da sociedade civil e realizou pesquisas com os indígenas, descobrindo que muitos estavam preocupados com a quantidade de desinformação na plataforma, de acordo com vários documentos.

Mas, apesar da atenção extra, o Facebook com o qual os indianos interagem está perdendo muitas das principais proteções que a empresa implantou nos Estados Unidos e em outros países de língua inglesa por anos. Um documento afirmava que o Facebook não desenvolveu algoritmos que pudessem detectar incitação ao ódio em hindi e bengali, apesar de serem o quarto e o sétimo idiomas mais falados no mundo, respectivamente. Outros documentos mostraram como atores políticos enviaram spam para a rede social com várias contas, espalhando mensagens antimuçulmanas nos feeds de notícias das pessoas, violando as regras do Facebook.

A empresa disse que introduziu classificadores de discurso de ódio em hindi em 2018 e bengali em 2020; sistemas para detectar violência e incitamento em hindi e bengali foram adicionados em 2021.

Pratik Sinha, cofundador do Alt News, um site de checagem de fatos na Índia que rotineiramente desmascara postagens virais falsas e inflamatórias, disse que enquanto a desinformação e o discurso de ódio proliferam em várias redes sociais, o Facebook às vezes não remove os malfeitores.

“O investimento deles na democracia de um país é condicional”, disse Sinha. “É benéfico se preocupar com isso nos EUA. Banning Trump trabalha para eles lá. Eles não podem nem mesmo banir um sujeito insignificante na Índia.”

'Aproxime o mundo'

A missão do Facebook é “aproximar o mundo” e, por anos, a expansão voraz em mercados fora dos Estados Unidos alimentou seu crescimento e lucros.

As redes sociais que permitem que os cidadãos se conectem e se organizem tornaram-se uma rota em torno de governos que controlavam e censuravam sistemas centralizados, como TV e rádio. O Facebook foi celebrado por seu papel em ajudar ativistas a organizar protestos contra governos autoritários no Oriente Médio durante a Primavera Árabe.

Para milhões de pessoas na Ásia, África e América do Sul, o Facebook se tornou a principal forma de acessar a Internet. O Facebook fez parceria com operadoras de telecomunicações locais em países como Mianmar, Gana e México para dar acesso gratuito ao seu aplicativo, junto com um pacote de outros serviços básicos, como listas de empregos e boletins meteorológicos.

O programa, chamado “Free Basics”, ajudou milhões a ficarem online pela primeira vez, consolidando o papel do Facebook como plataforma de comunicação em todo o mundo e prendendo milhões de usuários em uma versão da Internet controlada por uma empresa individual. (Embora a Índia tenha sido um dos primeiros países a obter o Free Basics em 2015, a reação de ativistas que argumentaram que o programa beneficiava o Facebook injustamente levou ao seu encerramento.)

No final de 2019, a Next Billion Network realizou um estudo em vários países, separado dos documentos do denunciante, sobre a moderação do Facebook e alertou a empresa que grandes volumes de reclamações legítimas, incluindo ameaças de morte, estavam sendo rejeitadas em países em todo o sul global, incluindo o Paquistão, Mianmar e Índia, por causa de problemas técnicos, de acordo com uma cópia do relatório revisado pelo The Post.

Ele descobriu que os fluxos de relatórios complicados e a falta de traduções desestimulavam os usuários a relatar conteúdo impróprio, a única maneira de moderar o conteúdo em muitos dos países que carecem de sistemas mais automatizados. Os padrões da comunidade do Facebook, o conjunto de regras que os usuários devem seguir, não foram traduzidos para o urdu, o idioma nacional do Paquistão. Em vez disso, a empresa inverteu a versão em inglês para que fosse lida da direita para a esquerda, refletindo a forma como o urdu é lido.

Em junho de 2020, um funcionário do Facebook postou uma auditoria das tentativas da empresa de tornar sua plataforma mais segura para usuários em “países de risco”, uma designação dada às nações que o Facebook marca como especialmente vulneráveis à desinformação e discurso de ódio. A auditoria mostrou que o Facebook tinha grandes lacunas na cobertura. Em países como Mianmar, Paquistão e Etiópia, o Facebook não tinha algoritmos que pudessem analisar o idioma local e identificar postagens sobre covid-19. Na Índia e na Indonésia, não foi possível identificar links para desinformação, mostrou a auditoria.

Na Etiópia, a auditoria ocorreu um mês depois de seu governo adiar as eleições federais, um passo importante na preparação de uma guerra civil que eclodiu meses depois. Além de ser incapaz de detectar informações incorretas, a auditoria descobriu que o Facebook também não tinha algoritmos para sinalizar discurso de ódio nas duas maiores línguas locais do país.

Após cobertura negativa, o Facebook fez investimentos dramáticos. Por exemplo, depois que um contundente relatório das Nações Unidas conectou o Facebook a um suposto genocídio contra a minoria muçulmana Rohingya em Mianmar, a região se tornou uma prioridade para a empresa, que começou a inundá-la com recursos em 2018, de acordo com entrevistas com dois ex-funcionários do Facebook com conhecimento do assunto, que, como outros, falou sob condição de anonimato para descrever assuntos delicados.

O Facebook tomou várias medidas para aumentar a segurança e remover o discurso de ódio viral e a desinformação na região, de acordo com vários documentos. Uma nota, de 2019, mostrou que o Facebook expandiu sua lista de termos depreciativos no idioma local e foi capaz de capturar e rebaixar milhares de calúnias. Antes das eleições de 2020 em Mianmar, o Facebook lançou uma intervenção que promoveu postagens de amigos e familiares dos usuários e reduziu a desinformação viral, descobriram os funcionários.

Um ex-funcionário disse que era fácil trabalhar nos programas da empresa em Mianmar, mas havia menos incentivo para trabalhar em questões problemáticas em países de perfil inferior, o que significa que muitas das intervenções implantadas em Mianmar não foram usadas em outros lugares.

“Por que apenas Mianmar? Essa foi a verdadeira tragédia”, disse o ex-funcionário.

'Porcos' e fomentador de medo

Na Índia, documentos internos sugerem que o Facebook estava ciente do número de mensagens políticas em suas plataformas. Uma postagem interna de março mostra que um funcionário do Facebook acreditava que um funcionário do BJP estava violando as regras do site para postar conteúdo inflamatório e spam em postagens políticas.

O pesquisador detalhou como o trabalhador usou várias contas para postar milhares de mensagens “politicamente sensíveis” no Facebook e no WhatsApp durante o período que antecedeu as eleições no estado de Bengala Ocidental. Os esforços quebraram as regras do Facebook contra “comportamento inautêntico coordenado”, escreveu o funcionário. O Facebook negou que a operação constituísse uma atividade coordenada, mas disse que entrou em ação.

Um estudo de caso sobre redes prejudiciais na Índia mostra que páginas e grupos do Rashtriya Swayamsevak Sangh, um influente grupo hindu-nacionalista associado ao BJP, promoveu narrativas antimuçulmanas que fomentam o medo com intenções violentas. Vários posts compararam muçulmanos a “porcos” e citaram informações incorretas, alegando que o Alcorão pede que os homens estuprem membros femininos da família.

O grupo não havia sido sinalizado, segundo o documento, devido ao que os funcionários chamaram de “sensibilidades políticas”. Em um conjunto de slides no mesmo documento, funcionários do Facebook disseram que as postagens também não foram encontradas porque a empresa não tinha algoritmos que detectassem incitação ao ódio em hindi e bengali.

O Facebook na Índia tem sido repetidamente criticado pela falta de um firewall entre os políticos e a empresa. Uma apresentação sobre a influência política na política de conteúdo de dezembro de 2020 reconheceu que a empresa “rotineiramente faz exceções para atores poderosos ao aplicar a política de conteúdo”, citando a Índia como exemplo.

“O problema que surge é que os incentivos estão alinhados até certo ponto”, disse Apar Gupta, diretor executivo da Internet Freedom Foundation, um grupo de defesa digital na Índia. “O governo quer manter um nível de controle político sobre o discurso online e as plataformas de mídia social, quer lucrar com um mercado muito grande, considerável e em crescimento na Índia.”

O Facebook afirma que suas equipes de políticas globais operam de forma independente e que a opinião de nenhuma equipe tem mais influência do que a outra.

No início deste ano, a Índia promulgou novas regras estritas para empresas de mídia social, que aumentam os poderes do governo ao exigir que as empresas removam qualquer conteúdo considerado ilegal dentro de 36 horas após a notificação. As novas regras geraram novas preocupações sobre a censura do governo às redes de mídia social baseadas nos Estados Unidos. Eles exigem que as empresas tenham um residente indiano na equipe para coordenar com as agências locais de aplicação da lei. As empresas também devem ter um processo em que as pessoas possam compartilhar reclamações diretamente nas redes sociais.

Mas Junaid, o estudante universitário da Caxemira, disse que o Facebook fez pouco para remover as postagens de discurso de ódio contra os Caxemires. Ele voltou para a casa de sua família depois que sua escola pediu aos alunos da Caxemira que fossem embora para sua própria segurança. Quando ele voltou ao campus 45 dias após o atentado de 2019, a postagem no Facebook de um colega pedindo que os caxemires fossem fuzilados ainda estava em sua conta.

Regine Cabato em Manila contribuiu para este relatório.

 

Deixar seu comentário

0
termos e condições.
  • Nenhum comentário encontrado

newsletter buton