Contents

Sistema automatizado da Meta enfrenta reação negativa por censura excessivamente zelosa do debate Israel-Hamas

/images/9aee77a70981c326eb8c36cce6de1d5015fd8bdcc6fd4c82a321036c0b496a48.jpg

O assunto moderação nas redes sociais nunca será encerrado.

Sem dúvida, quando a censura é aplicada a temas de natureza sensível, como a recente disputa entre o Hamas e o Estado de Israel, ela torna-se cada vez mais precária. Embora a Meta acreditasse ter aliviado alguns dos problemas por meio de sistemas automatizados de moderação, eles foram finalmente corrigidos pelo Meta Oversight Board, uma equipe responsável por supervisionar o gerenciamento de conteúdo dentro da plataforma.

O primeiro procedimento acelerado da história da empresa

A autoridade máxima responsável pela tomada de decisões relacionadas à moderação conduzida pelo grupo Meta em sua rede é conhecida como Órgão Supremo. Esta entidade foi criada para resolver disputas decorrentes de tais ações. Apesar da sua função principal, pode levar várias semanas ou até meses para que o Órgão Supremo chegue a uma conclusão. No entanto, o Conselho optou por um processo acelerado ao analisar dois vídeos específicos. Estas incluíam uma que representava uma mulher refém implorando aos seus captores durante o ataque liderado pelo Hamas em 7 de outubro. Além disso, houve imagens que mostravam as consequências de um ataque aéreo letal contra uma instalação médica na Faixa de Gaza sitiada durante a operação militar de Israel.

A análise do presente estudo abrangeu o exame de dois videoclipes, revelando que as determinações alcançadas quanto à sua exclusão e negação de recursos de seus criadores foram executadas desprovidas de qualquer envolvimento humano. Antes do chamado “veredicto”, Meta já havia restabelecido o conteúdo ao emitir um aviso de advertência indicando que o material poderia evocar fortes emoções. Apesar da prática geral de eliminar vídeos que contenham violência ou conteúdo gráfico, ocasionalmente são feitas exceções quando a filmagem refere-se a informações exclusivas ou serve um benefício social, como promover a introspecção moral.

Em última análise, o conselho concordou com as ações tomadas pela Meta, que já havia restabelecido os vídeos controversos antes de qualquer envolvimento de sua parte. No entanto, expressaram significativa desaprovação relativamente aos métodos utilizados e às circunstâncias que levaram a tal situação.

/images/8c7c9e4e8bf689cd9ddc34944af84e9383f29ede9ca5ea4178549681bf5494cc.jpg © Nada à Frente/Pexels

O problema com moderação automática

Na verdade, o relatório delineia que a Meta deveria ter respondido rapidamente para ajustar as suas directrizes de conteúdo à luz da evolução da situação e das potenciais consequências para a liberdade de expressão e o acesso à informação. Este sentimento contrasta com outra observação, que postula que tomar decisões numa base ad hoc pode levar a percepções de arbitrariedade, minando assim a confiança dos utilizadores na sua justiça.

A situação atual oferece uma oportunidade para examinar o funcionamento interno de certas plataformas que utilizam ferramentas automatizadas. Embora a aplicação de tais mecanismos em questões complexas possa ser justificável, a sua implementação generalizada suscita preocupações. Especificamente, se a restauração destes dois vídeos servir de indicação, numerosos outros casos de tratamentos semelhantes podem existir, mas permanecem despercebidos. Além disso, a nossa investigação revelou que o nível de moderação varia dependendo da popularidade do perfil de um utilizador, permitindo que aqueles com mais assinantes publiquem ocasionalmente material ofensivo sem intervenção do processo de moderação.

Meta expressou sua concordância com essas conclusões, uma vez que não eram particularmente desafiadoras e não exigiam quaisquer ações adicionais de sua parte.

Fonte: Engadget

*️⃣ Link da fonte: