Como o Facebook manterá seu metaverso seguro para os usuários?

O memorando interno de Andrew Bosworth apresenta a escala do desafio

Hannah Murphy em São Francisco para o Financial Times

O homem que lidera a investida do Facebook no metaverso disse aos funcionários que deseja que seus mundos virtuais tenham "níveis de segurança quase Disney", mas também reconheceu que moderar como os usuários falam e se comportam "em qualquer escala significativa é praticamente impossível".

Andrew Bosworth, que dirige um orçamento de US$ 10 bilhões por ano para construir "o metaverso", alertou que a realidade virtual pode muitas vezes ser um "ambiente tóxico" especialmente para mulheres e minorias, em um memorando interno de março visto pelo Financial Vezes.

Ele acrescentou que isso seria uma “ameaça existencial” aos planos ambiciosos do Facebook se ele desligasse “os clientes convencionais do meio por completo”.

O memorando apresenta o enorme desafio que o Facebook enfrenta, que tem uma história de falha em impedir que conteúdo prejudicial chegue aos seus usuários, enquanto tenta criar um reino digital imersivo onde as pessoas irão se conectar como avatares 3D para socializar, jogar, comprar e trabalhar .

Bosworth, que assumirá como diretor de tecnologia do Facebook no próximo ano, esboçou maneiras pelas quais a empresa pode tentar resolver o problema, mas especialistas alertaram que monitorar bilhões de interações em tempo real exigirá um esforço significativo e pode nem ser possível . Reality Labs, a divisão chefiada por Bosworth, atualmente não tem função de chefe de segurança.

“O Facebook não pode moderar sua plataforma existente. Como eles podem moderar um que é enormemente mais complexo e dinâmico?” disse John Egan, presidente-executivo do grupo de previsão L'Atelier BNP Paribas.

A mudança da verificação de texto, imagens e vídeo para o policiamento de um mundo 3D ao vivo será dramática, disse Brittan Heller, advogado de tecnologia da Foley Hoag. “Em 3D, não é o conteúdo que você está tentando controlar, é o comportamento”, disse ela. “Eles terão que construir um tipo totalmente novo de sistema de moderação.”

O plano atual do Facebook é dar às pessoas ferramentas para relatar mau comportamento e bloquear usuários com os quais não desejam interagir.

Um vídeo de segurança de 2020 para Horizon Worlds, um jogo social de realidade virtual desenvolvido pelo Facebook, diz que o Facebook gravará constantemente o que está acontecendo no metaverso, mas que essa informação será armazenada localmente no fone de ouvido de realidade virtual do usuário.

Se um usuário relatar mau comportamento, vários minutos de filmagem serão enviados aos revisores humanos do Facebook para avaliação. Bosworth disse em seu memorando que, de muitas maneiras, isso é "melhor" do que a vida real em termos de segurança porque sempre haverá um registro para verificar.

Um usuário também pode entrar em uma “zona de segurança pessoal” para se afastar de seu ambiente virtual, desenhar uma “bolha” pessoal para proteger seu espaço contra outros usuários ou solicitar um especialista em segurança invisível para monitorar uma situação arriscada.

Bosworth afirmou em seu memorando que o Facebook deve se apoiar nas regras existentes da comunidade, que por exemplo permitem xingar em geral, mas não contra uma pessoa específica, mas também têm “uma tendência mais forte para a aplicação ao longo de algum tipo de espectro de aviso, suspensões sucessivamente mais longas, e, em última instância, a expulsão de espaços multiusuários”.

Ele sugeriu que, como os usuários teriam uma única conta na Meta, a nova holding do Facebook, eles poderiam ser bloqueados em diferentes plataformas, mesmo que tivessem vários avatares virtuais.

“A teoria aqui tem que ser que podemos mover a cultura de forma que, a longo prazo, não tenhamos que tomar essas medidas de coação com muita frequência”, acrescentou.

Ele reconheceu, no entanto, que o bullying e o comportamento tóxico podem ser agravados pela natureza imersiva da realidade virtual. Isso foi destacado em um estudo de 2019 realizado por pesquisadores da divisão Oculus do Facebook, que descobriram que mais de um quinto de seus 422 entrevistados relataram uma “experiência desconfortável” em RV.

“O impacto psicológico sobre os humanos é muito maior”, disse Kavya Pearlman, executiva-chefe da XR Safety Initiative, uma organização sem fins lucrativos focada no desenvolvimento de padrões de segurança para realidade virtual aumentada e mista. Os usuários retêm o que acontece com eles no metaverso como se tivesse acontecido na vida real, acrescentou ela.

Especialistas em segurança argumentam que as medidas que o Facebook estabeleceu até agora para combater o comportamento indesejado são reativas, apenas fornecendo suporte depois que o dano foi causado.

Em vez disso, o Facebook poderia empunhar de forma proativa tecnologias emergentes de inteligência artificial, incluindo monitoramento de voz ou texto em busca de palavras-chave ou sinais de varredura de atividades anormais, como um adulto se aproximando repetidamente de uma criança ou fazendo certos gestos.

“Esses filtros serão extremamente importantes”, disse Mike Pinkerton, diretor de operações do grupo de terceirização de moderação ModSquad.

Mas a IA continua ineficaz nas plataformas atuais do Facebook, de acordo com as avaliações internas da própria empresa. Um exemplo notável de falha de IA em capturar um vídeo problemático ao vivo foi no início de 2019, quando o Facebook foi criticado por não conter a propagação de imagens dos ataques terroristas de Christchurch.

O Facebook disse ao Financial Times que estava “explorando a melhor forma de usar IA” no Horizon Worlds, acrescentando que “ainda não foi construído”.

Além de moderar bate-papo ao vivo e interações, o Facebook também pode ter que desenvolver um conjunto de padrões para os criadores e desenvolvedores que se baseiam em sua plataforma metaversa, que afirma ser aberta e interoperável com outros serviços.

Ethan Zuckerman, diretor do Instituto de Infraestrutura Pública Digital da Universidade de Massachusetts Amherst, disse que, para evitar spam ou assédio, a empresa poderia considerar um processo de revisão para desenvolvedores semelhante aos requisitos da Apple App Store.

No entanto, tal verificação pode “desacelerar enormemente e realmente prejudicar” o processo de criação aberta que Zuckerberg apresentou, acrescentou.

Em seu memorando, Bosworth disse que a empresa deveria definir uma base de padrões para desenvolvedores de RV de terceiros, mas que foi "um erro" mantê-los no mesmo padrão de seus próprios aplicativos.
“Acho que há uma oportunidade na RV para os consumidores buscarem e estabelecerem uma 'praça pública' onde a expressão é mais valorizada do que a segurança, se assim o desejarem”, acrescentou. Não está claro se essa abordagem se aplicaria aos desenvolvedores que estão construindo em seu metaverso futuro, além daqueles que estão construindo aplicativos para seu atual fone de ouvido Oculus.

Um porta-voz do Facebook disse que a empresa estava discutindo o metaverso agora para garantir que os controles de segurança e privacidade fossem eficazes para manter as pessoas seguras. “Este não será o trabalho de nenhuma empresa sozinha. Exigirá colaboração em toda a indústria e com especialistas, governos e reguladores para acertar.”

Deixar seu comentário

0
termos e condições.
  • Nenhum comentário encontrado

newsletter buton