The Facebook Papers: Na Índia, o Facebook luta com uma versão ampliada de seus problemas

Em 4 de fevereiro de 2019, um pesquisador do Facebook criou uma nova conta de usuário para ver como é experimentar o site de mídia social como uma pessoa que vive em Kerala, na Índia.

Pelas próximas três semanas, a conta operou por uma regra simples: Siga todas as recomendações geradas pelos algoritmos do Facebook para ingressar em grupos, assistir a vídeos e explorar novas páginas do site.

O resultado foi uma inundação de discurso de ódio, desinformação e celebrações de violência, que foram documentadas em um relatório interno do Facebook publicado no final daquele mês.

“Seguindo o Feed de notícias desse usuário de teste, vi mais imagens de pessoas mortas nas últimas três semanas do que em toda a minha vida”, escreveu o pesquisador do Facebook.

“O feed de notícias do usuário de teste tornou-se uma enxurrada quase constante de conteúdo nacionalista polarizado, desinformação e violência e sangue coagulado.”

O relatório foi um entre dezenas de estudos e memorandos escritos por funcionários do Facebook lutando com os efeitos da plataforma na Índia. Eles fornecem evidências nítidas de uma das críticas mais sérias levantadas por ativistas de direitos humanos e políticos contra a empresa de abrangência mundial: ela se muda para um país sem compreender totalmente seu impacto potencial na cultura e política local e não consegue empregar os recursos para agir sobre os problemas assim que eles ocorrem.

Economia

Com 340 milhões de pessoas usando as várias plataformas de mídia social do Facebook, a Índia é o maior mercado da empresa. E os problemas do Facebook no subcontinente apresentam uma versão ampliada dos problemas que enfrentou em todo o mundo, agravados pela falta de recursos e falta de experiência nas 22 línguas da Índia oficialmente reconhecidas.

Os documentos internos, obtidos por um consórcio de organizações de notícias que incluiu o The New York Times, fazem parte de um cache maior de material chamado The Facebook Papers. Eles foram coletados por Frances Haugen, uma ex-gerente de produto do Facebook que se tornou uma denunciante e recentemente testemunhou perante um subcomitê do Senado sobre a empresa e suas plataformas de mídia social. As referências à Índia foram espalhadas entre os documentos apresentados pela Sra. Haugen à Securities and Exchange Commission em uma reclamação no início deste mês.

Os documentos incluem relatórios sobre como bots e contas falsas vinculadas ao partido governante do país e a figuras da oposição estavam causando estragos nas eleições nacionais. Eles também detalham como um plano defendido por Mark Zuckerberg, presidente-executivo do Facebook, de se concentrar em “interações sociais significativas”, ou trocas entre amigos e familiares, estava levando a mais desinformação na Índia, especialmente durante a pandemia .

O Facebook não tinha recursos suficientes na Índia e não foi capaz de lidar com os problemas que apresentou lá, incluindo postagens anti-muçulmanas, de acordo com seus documentos. Oitenta e sete por cento do orçamento global da empresa para o tempo gasto na classificação de desinformação é destinado aos Estados Unidos, enquanto apenas 13 por cento é reservado para o resto do mundo – embora os usuários norte-americanos representem apenas 10 por cento da rede social usuários ativos diários, de acordo com um documento que descreve a alocação de recursos do Facebook.

Andy Stone, porta-voz do Facebook, disse que os números estão incompletos e não incluem os parceiros de checagem de fatos da empresa, a maioria dos quais está fora dos Estados Unidos.

Esse foco desequilibrado nos Estados Unidos teve consequências em vários países além da Índia. Documentos da empresa mostraram que o Facebook instalou medidas para rebaixar a desinformação durante as eleições de novembro em Mianmar, incluindo desinformação compartilhada pela junta militar de Mianmar.

A empresa reverteu essas medidas após a eleição, apesar da pesquisa que mostrou que eles reduziram o número de visualizações de postagens inflamatórias em 25,1% e postagens de fotos contendo informações incorretas em 48,5%. Três meses depois, os militares realizaram um violento golpe no país . O Facebook disse que, após o golpe, implementou uma política especial para remover elogios e apoio à violência no país e, posteriormente, baniu os militares de Mianmar do Facebook e Instagram.

No Sri Lanka, as pessoas foram capazes de adicionar automaticamente centenas de milhares de usuários a grupos do Facebook, expondo-os a conteúdo indutor de violência e odioso. Na Etiópia, um grupo de milícia jovem nacionalista coordenou com sucesso chamadas à violência no Facebook e postou outro conteúdo inflamatório.

O Facebook investiu significativamente em tecnologia para detectar incitação ao ódio em vários idiomas, incluindo hindi e bengali, dois dos idiomas mais usados, disse Stone. Ele acrescentou que o Facebook reduziu a quantidade de discurso de ódio que as pessoas veem globalmente pela metade neste ano.

“O discurso de ódio contra grupos marginalizados, incluindo muçulmanos, está aumentando na Índia e em todo o mundo”, disse Stone. “Portanto, estamos melhorando a aplicação e estamos comprometidos em atualizar nossas políticas à medida que o discurso de ódio evolui online.”

Na Índia, “há definitivamente uma questão sobre a obtenção de recursos” para o Facebook, mas a resposta não é “apenas jogar mais dinheiro no problema”, disse Katie Harbath, que passou 10 anos no Facebook como diretora de políticas públicas e trabalhou diretamente sobre como garantir as eleições nacionais da Índia. O Facebook, disse ela, precisa encontrar uma solução que possa ser aplicada a países ao redor do mundo.

Os funcionários do Facebook realizaram vários testes e estudos de campo na Índia por vários anos. Esse trabalho aumentou antes das eleições nacionais de 2019 na Índia; no final de janeiro daquele ano, um punhado de funcionários do Facebook viajou ao país para se encontrar com colegas e falar com dezenas de usuários locais do Facebook.

De acordo com um memorando escrito após a viagem, um dos principais pedidos dos usuários na Índia era que o Facebook “tomasse medidas em relação aos tipos de informações erradas que estão relacionadas a danos no mundo real, especificamente política e tensão de grupos religiosos”.

Dez dias depois que o pesquisador abriu a conta falsa para estudar a desinformação, um atentado suicida na região de fronteira disputada da Caxemira desencadeou uma rodada de violência e um aumento em acusações, desinformação e conspirações entre cidadãos indianos e paquistaneses.

Após o ataque, o conteúdo anti-Paquistão começou a circular nos grupos recomendados pelo Facebook aos quais o pesquisador havia aderido. Muitos dos grupos, observou ela, tinham dezenas de milhares de usuários. Um relatório diferente do Facebook, publicado em dezembro de 2019, descobriu que os usuários indianos do Facebook tendiam a se juntar a grandes grupos, com o tamanho médio do grupo no país de 140.000 membros.

Postagens gráficas, incluindo um meme mostrando a decapitação de um paquistanês e cadáveres embrulhados em lençóis brancos no chão, circularam nos grupos aos quais ela aderiu.

Depois que a pesquisadora compartilhou seu estudo de caso com colegas de trabalho, seus colegas comentaram no relatório publicado que estavam preocupados com a desinformação sobre as próximas eleições na Índia.

Do documento: A descida de um usuário de teste indiano para um mar de mensagens nacionalistas e polarizadoras

“Esses grupos se tornam canais de distribuição perfeitos quando desejam promover conteúdo ruim em um curto período de tempo.”

“Os administradores desses grupos tendiam a tomar uma posição relaxada / atitude indiferente para garantir que o conteúdo compartilhado no grupo estivesse em um determinado tópico de foco e permitissem que os usuários postassem livremente o que achavam interessante / queriam compartilhar.”

Dois meses depois, após o início das eleições nacionais na Índia, o Facebook implementou uma série de medidas para conter o fluxo de desinformação e discurso de ódio no país, de acordo com um documento interno denominado Indian Election Case Study.

O estudo de caso pintou um quadro otimista dos esforços do Facebook, incluindo a adição de mais parceiros de verificação de fatos – a rede de terceiros com a qual o Facebook trabalha para terceirizar a verificação de fatos – e aumentando a quantidade de desinformação removida. Ele também observou como o Facebook havia criado uma “lista branca política para limitar o risco de RP”, essencialmente uma lista de políticos que receberam uma isenção especial de verificação de fatos.

O estudo não observou o imenso problema que a empresa enfrentou com os bots na Índia, nem questões como a supressão de eleitores. Durante a eleição, o Facebook viu um pico de bots – ou contas falsas – vinculadas a vários grupos políticos, bem como esforços para espalhar informações incorretas que poderiam ter afetado a compreensão das pessoas sobre o processo de votação.

Em um relatório separado produzido após as eleições, o Facebook descobriu que mais de 40 por cento das principais visualizações, ou impressões, no estado indiano de West Bengal foram “falsas / inautênticas”. Uma conta não autêntica acumulou mais de 30 milhões de impressões.

Um relatório publicado em março de 2021 mostrou que muitos dos problemas citados durante as eleições de 2019 persistiram.

No documento interno, chamado Adversarial Harmful Networks: India Case Study, os pesquisadores do Facebook escreveram que havia grupos e páginas “repletas de conteúdo anti-muçulmano inflamatório e enganoso” no Facebook.

O relatório disse que havia uma série de postagens desumanizantes comparando muçulmanos a “porcos” e “cachorros”, e desinformação alegando que o Alcorão, o livro sagrado do Islã, pede que os homens estuprem suas famílias.

Muito do material circulou em torno de grupos do Facebook que promovem o Rashtriya Swayamsevak Sangh, um grupo paramilitar nacionalista de direita indiana. Os grupos questionaram a expansão da população de minoria muçulmana em Bengala Ocidental e perto da fronteira com o Paquistão, e publicaram postagens no Facebook pedindo a expulsão das populações muçulmanas da Índia e promovendo uma lei de controle da população muçulmana.

O Facebook sabia que essas postagens prejudiciais proliferavam em sua plataforma, indicou o relatório, e precisava melhorar seus “classificadores”, que são sistemas automatizados que podem detectar e remover postagens contendo linguagem violenta e incitante. O Facebook também hesitou em designar o RSS como uma organização perigosa por causa de “sensibilidades políticas” que poderiam afetar a operação da rede social no país.

Dos 22 idiomas oficialmente reconhecidos da Índia, o Facebook disse que treinou seus sistemas de IA em cinco. (Dizia que tinha revisores humanos para alguns outros.) Mas em hindi e bengali, ainda não tinha dados suficientes para policiar adequadamente o conteúdo, e grande parte do conteúdo voltado para os muçulmanos “nunca é sinalizado ou acionado”, disse o relatório do Facebook.

Cinco meses atrás, o Facebook ainda lutava para remover com eficiência o discurso de ódio contra os muçulmanos. Outro relatório da empresa detalhou os esforços de Bajrang Dal, um grupo extremista ligado ao partido político nacionalista hindu Bharatiya Janata Party, para publicar postagens contendo narrativas anti-muçulmanas na plataforma.

O Facebook está considerando designar o grupo como uma organização perigosa porque está “incitando a violência religiosa” na plataforma, mostrou o documento. Mas ainda não o fez.

“Junte-se ao grupo e ajude a administrar o grupo; aumentar o número de membros do grupo, amigos ”, disse uma postagem procurando recrutas no Facebook para divulgar as mensagens de Bajrang Dal. “Lute pela verdade e pela justiça até que os injustos sejam destruídos.”

The New York Times

Leia também

Trump chama para a briga Twitter, Facebook, Netflix, Disney, CNN, Google e Amazon

Facebook planeja construir um mundo virtual para seus usuários chamado ‘metaverso’

Instagram e Facebook estão envelhecendo e correm perigo de desaparecer em breve