En una de sus últimas actualizaciones, que guarda relación con el tipo de contenido que se presenta en Facebook, se muestra y se normaliza la violencia contra las mujeres, motivo por el que ha recomendado a la compañía que emprenda un proceso de desarrollo de políticas para abordar esta brecha.

Para ello, se ha tomado como referencia una publicación compartida a través de esta red social con fecha de mayo de 2021 y en la que se muestra una fotografía de una mujer con marcas visibles de una agresión como moretones en la cara y en el cuerpo.

Además, esta imagen cuenta con una leyenda escrita en árabe, en la que la mujer comenta que, después de un malentendido con su pareja, a quien le pidió un velo y este interpretó como un 'burro', debido a que ambas palabras mantienen una tipografía similar, este le agredió físicamente.

Se incluyeron, asimismo, comentarios que sugerían que la mujer merecía haber sido víctima de esa agresión, así como emoticonos de caras sonrientes y llorando de la risa como gesto de burla de esta acción. El Consejo asesor ha comentado que en febrero de 2023 un usuario denunció este contenido hasta en tres ocasiones por violar los lineamientos de la comunidad de Meta en términos de violencia e incitación al odio pero que, a pesar de su insistencia, la compañía no revisó el caso.

Por lo que, teniendo en cuenta que 48 horas después de la denuncia la incidencia se cierra automáticamente, la publicación permaneció en la plataforma durante casi dos años, sin que un moderador lo revisara.

La pasividad de la plataforma hizo a este usuario acudir al Consejo asesor, que determinó que dicha publicación violaba la política de Meta sobre intimidación y acoso, además de que se burlaba de las graves lesiones físicas de la mujer representaba, motivos por los que debía eliminarse, lo que, finalmente, Meta hizo.

Y es que, a pesar de que la compañía finalmente actuó ante esta infracción, desde el Consejo han asegurado que se podría haber dado el caso de que esta no cumpliese con ciertos requisitos para proceder a este borrado.

Los expertos apuntan que esta publicación no habría violado las reglas de Meta sobre el acoso y la intimidación si la mujer representada no fuese identificable o si la leyenda hubiera acompañado una imagen de un personaje ficticio.

Motivo por el que señalan que existe un vacío en las políticas existentes, puesto que la compañía que lidera Mark Zuckerberg parece permitir contenidos que normalizan la violencia de género, aunque Meta asegure haberse centrado en gran medida en identificar estas lagunas. Su política de Bullying y acoso generalmente identifica este contenido, pero no necesariamente reconoce contenido de violencia de género.

Este caso genera inquietudes sobre cómo Meta está aplicando sus reglas sobre el acoso y la intimidación, pues no prioriza infracciones como las denunciadas por el usuario para su revisión por parte de un moderador humano.

Recomendaciones

La Junta de Supervisión y control anuló la decisión original de Meta de mantener este contenido en dicha red social, ha explicado el Consejo asesor de contenido.

A su vez, ha recomendado a la compañía tecnológica que emprenda un proceso de desarrollo de políticas con el que se establezca una normativa con la que se pueda abordar el contenido que normaliza la violencia de género a través del elogio, la justificación, la celebración o la burla de este delito.

Por último, ha instado a Meta a que aclare en sus normas comunitarias sobre intimidación y acoso el término 'afección médica', para que también incluya lesión física grave.