Todos os segundos, milhares de conteúdos são publicados no Facebook. Todos os segundos, os moderadores desta rede social trabalham para manter decapitações, pornografia infantil e violações fora dos ecrãs dos 1,86 mil milhões de utilizadores.
“Literalmente, não havia nada de agradável neste trabalho. Ias trabalhar às 9 todas as manhãs, ligavas o computador e vias alguém a ser decapitado. Todos os dias, todos os minutos é isso que vês. Cabeças a serem cortadas."
Passar o dia a mergulhado nas redes sociais é, para muitos, um agradável passatempo. Fazer disso emprego, parece ser o melhor de dois mundos. Porém, os 4.500 moderadores da rede social Facebook estão em rutura: trabalham a mais e recebem a menos.
O desabafo que abre este texto é de um homem ao jornal britânico The Guardian. É assim que ele descreve o que é ser moderador e passar o dia diante de um ecrã onde a violência, o terrorismo e o sadismo se sucedem. Ganhava cerca de 15 dólares por hora e teve uma formação de duas semanas.
“Todos os dias as pessoas tinham de visitar psicólogos. Alguns não conseguiam dormir ou tinham pesadelos”, conta o homem que manteve o anonimato ao jornal.
Facebook precisa de mais 3000 moderadores
O atual número de moderadores do Facebook é, para Mark Zuckerberg, insuficiente e por isso a maior rede social do mundo quer juntar mais 3.000 pessoas para monitorizar os conteúdos que chegam ao Facebook. “Ao longo do próximo ano, vamos acrescentar 3.000 pessoas à nossa equipa de operações de comunidade em todo o mundo - para além das 4.500 que temos hoje - para rever os milhões de denúncias que recebemos todas as semanas e melhorar o processo para o fazer mais rapidamente”, disse Zuckerberg no início de maio.
“Se vamos construir uma comunidade segura, precisamos de responder rapidamente. Estamos a trabalhar para fazer com que seja mais fácil denunciar estes vídeos, para que possamos agir mais cedo - quer seja respondendo depressa quando alguém precisa de ajuda, quer seja retirando uma publicação da rede.”
Foi assim a reação de Zuckerberg às imagens de violações, homicídios e agressões que nos últimos meses têm surgido nos live streams que aquela rede social disponibiliza a toda a gente. O conteúdo, publicado em direto, pode ser qualquer coisa: de uma festa de anos a um crime inimaginável. Nestes casos, a moderação é posterior.
Psicólogos ouvidos pelo jornal britânico The Guardian dizem que os moderadores precisam de um acompanhamento próximo. “Os trabalhadores expostos a este tipo de conteúdos devem ter um treino extenso em resistência e acesso a aconselhamento, parecido ao apoio que as equipas de emergência médica recebem”, escreve o jornal. Os moderadores, porém, dizem que o apoio não é suficiente.
“Reconhecemos que este trabalho pode ser difícil. É por isso que oferecemos a todas as pessoas a rever o conteúdo do Facebook apoio psicológico e recursos de bem-estar. Temos trabalhado com psicólogos para preparar um programa que é especificamente desenhado para apoiar as pessoas nesses papéis”, disse uma porta-voz do Facebook ao jornal.
Não é o primeiro caso que vem a público sobre as dificuldades da moderação online e em concreto sobre a vida de quem desempenha essa função. Outras empresas que fazem moderação de conteúdo online, contudo, apontam o dedo à rede social de Zuckerberg, dizendo que o apoio dado aos moderadores está aquém dos padrões da indústria.
É o caso da britânica Fundação para a Vigilância da Internet (IWF, na sigla em inglês) e do americano Centro Nacional para as Crianças Desaparecidas e Exploradas (NCMEC, na sigla em inglês), que têm equipas a monitorizar conteúdos denunciados como abuso sexual de crianças.
Antes de a IWF contratar um moderador, explica o The Guardian, os candidatos são analisados por um psicólogo, que afere a sua adequação às tarefas em causa. Depois desta fase, são entrevistados e têm ainda de passar por um último teste, que os confronta com imagens de abuso sexual de crianças.
Os candidatos sentam-se com dois funcionários da IWF e são expostos a uma sequência de imagens cada vez mais violentas, mostrando o pior tipo de violência sexual contra crianças. Esta fase tem o objetivo de avaliar as reações dos candidatos, ver como é que eles lidam com as imagens e perguntar-lhes se querem mesmo fazer parte da equipa, adianta o jornal inglês.
Quando aceitam o lugar, têm o passado escrutinado por analistas e são submetidos a uma preparação de meio ano, que vai desde formação em direito, noções sobre a dark web e até formas de ganhar resistência para lidar com o conteúdo traumático.
Na NCMEC os procedimentos são semelhantes. Os analistas são treinados durante quatro a seis meses e são sempre acompanhados por um programa de bem-estar mental que se inicia logo no processo de admissão.
Estes dados fazem parte dos Facebook Files, uma série de artigos publicados pelo jornal britânico The Guardian, que teve acesso a documentos internos da rede social que mostram como o gigante de Zuckerberg lida com o conteúdo que os utilizadores publicam na plataforma. As regras internas dizem o que é que os moderadores podem, ou não, deixar passar.
Novas funcionalidades, novos desafios
Um dos paralelismos mais recentes usados pelos media passa por associar as novas formas de comunidades online ao livro do britânico George Orwell, 1984. Na obra, publicada em 1949, Orwell descreve-nos uma sociedade distópica onde tudo é controlado, onde tudo é vigiado. Mas ao contrário do que acontece no mundo alternativo do autor britânico, cuja frase emblemática “O grande irmão está a ver-te” foi o mote para programas como o Big Brother (O Grande Irmão), que revolucionaram a televisão portuguesa no início do século, nos streams do Facebook a vigilância é voluntária e autoimposta.
Isto é, são os utilizadores que voluntariamente iniciam a emissão em direto, mostrando ao mundo o que estão a fazer no momento. Esta possibilidade é útil para os meios de comunicação social, que podem explorar novas formas de chegar ao público, como fez esta semana o SAPO 24 com uma entrevista em direto para o Facebook com Frankie Chavez, por exemplo. Mas há mais exemplos: conferências, comunicados, reportagens, eventos.
Para o cidadão comum, o direto abre todo um novo mundo. Já não é preciso tirar uma fotografia ao almoço, agora há a possibilidade de transmitir o almoço em tempo real para todos os seguidores.
Obviamente, isto traz consequências. O abuso do sistema levou o Facebook a rever estratégias, depois de estar debaixo de críticas.
Todavia, também há histórias com reviravoltas. A 2 de maio, uma rapariga de 15 anos tomou comprimidos e colocou um saco de plástico na cabeça. O objetivo era o suicídio. Aconteceu na Geórgia, Estados Unidos da América, e a jovem transmitiu o sucedido em direto no Facebook. O vídeo esteve no ar tempo suficiente para as autoridades atuarem e salvarem a menor.
Por causa das opções de privacidade, só os amigos da jovem podiam ver o direto. Ainda assim, uma das pessoas que estava a ver o vídeo ligou para o número de emergência. A sargento Linda Howard, do departamento do xerife, tinha um sobrinho que era amigo da jovem naquela rede social, podendo as autoridades, assim, confirmar que não se tratava de uma partida.
Um mês antes, o Facebook foi alertado para outro possível suicídio. Na altura, a decisão foi a de manter o vídeo no ar, decisão que permitiu que a polícia “usasse esse vídeo em direto para comunicar com a pessoa e ajudar salvar a vida dela”, disse Mark Zuckerberg no final de abril.
Mas há outras situações em que todos veem, mas ninguém denuncia. Foi o que aconteceu em Chicago, em março. Uma rapariga de 15 anos foi agredida sexualmente por um grupo de jovens. O crime foi filmado e transmitido em direto no Facebook. 40 pessoas assistiram à violação, mas nenhuma reportou o caso às autoridades.
As autoridades só souberam do sucedido quando a mãe da jovem abordou diretamente Eddie Johnson, o superintendente da polícia, e lhe mostrou o vídeo. Um rapaz de 14 anos foi detido por agredir sexualmente uma rapariga de 15 anos. O rapaz enfrenta acusações de agressão sexual, fabrico de pornografia infantil e disseminação de pornografia infantil.
Lucros, lucros, lucros
No primeiro trimestre deste ano, o Facebook registou 2.806 milhões de euros de lucro líquido. Foi um aumento de 76% em relação a igual período de 2016. Nestes três primeiros meses de 2017, as receitas da empresa registaram um aumento de 49%, fixando-se nos 7.356 milhões de euros.
A publicidade é a principal fonte de negócio da rede social: rendeu 7.196 milhões de euros no início deste ano.
O ano passado, a empresa fechou com lucros de 10,2 mil milhões de euros. Graças ao crescimento da publicidade no acesso móvel, sustentado num aumento do número de utilizadores, a rede social triplicou os lucros anuais.
No final do ano passado, havia 1,86 mil milhões de utilizadores, 66% deles usa a rede social todos os dias.
Os portugueses e as redes sociais
Um estudo da Marktest, divulgado em setembro de 2016, mostra que os portugueses dedicam em média 91 minutos do seu tempo às redes sociais. O Facebook “destaca-se claramente das restantes redes sociais, pois a maioria refere que ele é o site mais credível, o que informa melhor, [aquele de] que mais gostam” e “o mais viciante”, pode ler-se.
O Facebook é também a rede com maior penetração no país entre quem tem acesso à internet: 94% dos utilizadores. Desde 2011, segundo a Marktest, “o número de utilizadores em Portugal cresceu 53% e abrange hoje 4,6 milhões de portugueses (54% dos residentes no continente com 15 anos ou mais)”.
Mais de metade dos utilizadores visita as redes sociais várias vezes ao dia, porém, só 41% publica alguma coisa todos os dias. As visitas são sobretudo entre as 20h00 e as 22h00 e cada vez mais através do smartphone.
24.sapo.pt
Sem comentários:
Enviar um comentário