Q

Previsão do tempo

13° C
  • Thursday 17° C
  • Friday 15° C
  • Saturday 15° C
13° C
  • Thursday 17° C
  • Friday 15° C
  • Saturday 15° C
13° C
  • Thursday 17° C
  • Friday 15° C
  • Saturday 16° C

Quem modera os moderadores?

Rui Martins

EXCLUSIVO

ASSINE JÁ
Os portugueses gastam diariamente, em média, 91 minutos nas redes sociais (números de 2016), e dentro destas, no facebook, 95,1% do seu tempo total de navegação (estudo da Marketest de 2018). Isto significa que o que fazemos e lemos no facebook tem um impacto tremendo nas nossas vidas e que, já mais que a televisão, rádio e jornais, é aqui que encontramos as notícias e informações que lemos e que nos influenciam.

Outro estudo, mais recente e da lavra da Mediapost, indica que os portugueses eram os cidadãos europeus que mais tempo gastavam a navegar na Internet, com cerca de 780 minutos e que 3/4 desse tempo estavam em redes sociais (essencialmente no facebook já que o twitter em Portugal tem uma penetração abaixo da média). Esta centralidade do facebook nas nossas vidas significa que precisamos de garantir que esse centro funciona de forma transparente, legal e que existe regulação eficaz e que não estamos num campo sem lei ou imune à pressão dos cidadãos.

A centralidade assumida pelos conteúdos que encontramos no facebook e que o seu algoritmo nos apresenta no newsfeed deve seguir todas as regras, leis e respeitar a essência democrática da nossa sociedade. Mas o facebook é uma empresa privada, motivada por lucros que não param de crescer, tendo sido de 6.88 mil milhões de dólares no último trimestre de 2018…como garantir que uma empresa multinacional, motivada pelo lucro e com uma quantidade fantástica de capital nas mãos segue as regras da democracia? Existe apenas uma forma: pela pressão dos seus utilizadores: daqueles em cuja comercialização de dados pessoais assenta o seu modelo de negócio. E a chave para essa regulação está na democratização do processo de moderação de conteúdos do facebook.

Será injusto não reconhecer a enorme diferença em quantidade e qualidade na gestão de conteúdos que o facebook tem empreendido, especialmente depois da eleição de Trump e da intrusão de operações comandadas a partir da Rússia nas eleições americanas e no referendo do Brexit: Este esforço materializou-se na contratação – geralmente em regime de outsourcing – de mais de 725 mil moderadores, incluindo uma equipa de outsourcers trabalhando em Portugal moderando conteúdos nacionais que se estima oscilar em torno dos 165 elementos.

Este esforço é notável e observa-se na rapidez com que conteúdos extremistas ou violentos são hoje removidos do facebook e no aumento do apagamento de perfis falsos que se observa nos últimos meses. A rede social está a reagir e a reagir de forma decisiva e adequada ao problema de qualidade dos seus conteúdos. Mas precisa de continuar este esforço e, sobretudo, de o intensificar.

Os moderadores de conteúdos devem ser valorizados, integrados na empresa, receberem apoio psicológico apropriado ao tipo de conteúdos violentos e estressantes que são obrigados a ver numa base diária e permanente.

A carga de trabalho sobre estes moderadores tem que diminuir e as suas condições de trabalho melhorarem para que a moderação de conteúdos seja mais eficaz e de melhor qualidade: Estima-se que cada moderador, depois de ter recebido uma formação de duas semanas, tenha que rever cinco mil conteúdos por dia e dez milhões de posts são revistos todas as semanas com um objetivo de erro inferior a 1% tudo isto a uma remuneração que o The Guardian estima ser inferior aos 18 euros/hora.

São os moderadores quem governa o facebook. E quem governa o facebook governa a Internet em Portugal e os 5.9 milhões de utilizadores que passam aqui a maioria do seu tempo online. Esta moderação tem que ser eficaz e estas pessoas devem ser reconhecidas pela importância do seu papel. As fake news fazem ganhar ou perder eleições e o facebook precisa de aprofundar o esforço que já fez e levar mais longe a qualidade da moderação, sem censura, dos seus conteúdos.

O sistema de denúncias precisa de ser melhorado por forma a não permitir (como sucede atualmente) o takedown automático de conteúdos por grupos de pressão organizados (como já sucedeu a grupos de cidadania local onde estou ativo) e o processo de takedown precisa de transparência nos métodos, métricas e de um sistema de recurso rápido, eficaz e humano que não dependa do capricho ou do stress de um moderador sobrecarregado ou que não esteja a passar por um bom dia de trabalho.

Os utilizadores da rede social devem poder controlar melhor o que veem no newsfeed (excluindo, por exemplo, posts e comentários por categoria e tipo). Sobretudo, a moderação de conteúdos precisa de ser descentralizada e moderada pelos próprios utilizadores.

Recentemente, Mark Zuckerberg, o CEO do facebook anunciou a criação de um “tribunal independente” para 2019 que, funcionando acima do atual corpo de moderadores, possa melhorar o sistema de moderação especialmente nas áreas onde ele é mais difícil (por exemplo na distinção daquilo que é “liberdade de expressão” e “discurso de ódio”). Neste “tribunal” os utilizadores poderão submeter um recurso quando as suas contas ou páginas, ou posts forem suspensos. Segundo Zuckerberg este será um órgão “transparente” e monitorizável e com grande foco na comunidade e nos valores da sociedade onde a rede social opera.

A confirmar-se este “tribunal supremo” poderá ser um salto quântico na qualidade e rapidez da moderação de conteúdos. E esta organização de recurso precisa de ser montada com rapidez, começando num piloto num país como Portugal de escala moderada para a multinacional mas com um alto nível de penetração. Um “tribunal” deste tipo não pode, nunca, para ser eficaz funcionar nos EUA ou no Reino Unido, mas deve funcionar em cada país, ter uma base voluntária e democrática.

Os seus membros devem poder voluntariar-se a partir da base de utilizadores não-comerciais da empresa e serem eleitos ou sorteados a partir da mesma, rodando numa base anual e deixando aos utilizadores alcançados por cada um desses “tribunais” o poder para, por petição, poderão revogar a qualquer momento o mandato desses “juízes”.

Para além da criação – em piloto – de um “tribunal de recurso” em Portugal para conteúdos portugueses o facebook precisa de tornar absolutamente claras e transparentes as regras que irão reger o seu funcionamento e a moderação de conteúdos, submetendo-as, e porque não? A um referendo dos seus utilizadores e cessando com a isenção de cobertura por processos de difamação a figuras públicas, tornando claras as regras internas pelas quais alguém tem esse estatuto (Quantidade de seguidores? Presença frequente nos media convencionais? Político eleito?) e fazendo regressar essas pessoas à mesma proteção que todos têm contra injúrias e difamação.

(0)
Comentários
.

0 Comentários

Deixe um comentário

Últimas

Artigos Relacionados

PSP intervém em jogo de futebol

O Comando Distrital da Polícia de Leiria da PSP transmitiu que no final de um jogo de futebol do escalão júnior realizado no passado sábado no Campo Luís Duarte, nas Caldas da Rainha, o juiz da partida “comunicou ao comandante do policiamento” ter existido uma “suposta tentativa de agressão ao árbitro” por parte do treinador de uma das equipas.

Bárbara Costa no “Centro das Conversas”

A iniciativa “Centro das Conversas”, realizada no passado dia 20, no Shopping Center La Vie Caldas da Rainha, contou com a presença de Bárbara Costa, Miss Petite Mesoamérica Portugal 2024 e vencedora do Mesoamerica International 2024, concurso de beleza e dança.

miss