;
  • 20 ABR 2024, Actualizado 12:30

¿Quién decide qué es lo que vemos en Facebook?

Durante los últimos meses, varias organizaciones han alertado sobre la pasividad de plataformas como Facebook o Twitter para combatir contenidos que propagan discursos de odio

¿Quién decide qué es lo que vemos en Facebook?

México

Durante los últimos meses varias organizaciones han alertado sobre la pasividad de plataformas como Facebook, Google o Twitter para combatir los contenidos que se encargan de propagar discursos de odio, violencia, abusos sexuales, de menores o animales. De Fake News mejor ni hablamos.

Y es que ¿qué tanto podemos decir que tu muro, es tu muro?

El periódico The Guardian ha publicado una investigación a través de la que recorre más de 100 manuales internos sobre las políticas de Facebook para moderar comentarios o contenidos sobre sexo, terrorismo, violencia y hasta canibalismo.

En Marzo, un grupo de jóvenes violó a una adolescente en Chicago. El video fue transmitido en Facebook. Un mes más tarde, un hombre en Cleveland, cometió un asesinato y también subió el video a la plataforma.Lo mismo ocurrió con un tailandés que ahorcó a su hijo de 11 meses y antes de suicidarse, subió el video a la red.

En cada uno de estos casos, Facebook tardó más de 24 horas en eliminar los contenidos y los manuales filtrados contemplan que algunas muertes violentas, abusos físicos contra menores o autolesiones pueden “pasarse”, bajo el argumento de que estos contenidos pueden servir como una llamada de atención sobre los problemas de salud mental. En el caso de autolestiones, el manual señala que estas publicaciones pueden ser una alerta para que los amigos de ese usuario descubran que tiene un problema y puedan ayudarlo.

La filtración hecha por The Guardian nos ayuda a dimensionar el nivel de la problemática que conlleva moderar contenidos en una red social, y sin lugar a dudas es uno de los retos más importantes que afrontan diversas plataformas.

Un ejemplo de ello, es la tolerancia que puede existir, de acuerdo a los manuales publicados en favor de expresiones como “jódete y muere” o “espero que alguien te mate” o “esa muchachita que mejor se quede tranquila antes de que papi le rompa la cara”, que para Facebook pueden calificar como “amenazas no creíbles”.

En contraparte, se contempla que frases como “que alguien le dispare a Trump” deben borrarse inmediatamente, pues al ser un jefe de estado, se encuentra dentro de lo que se considera una “categoría protegida”.

Y es que la diferencia, según los manuales publicados por The Guardian, radica en que la gente suele utilizar un lenguaje violento para expresar su frustración en línea.

La documentación presentada, es tan sólo un vistazo al complejo proceso de decisiones al que se enfrenta diariamente una compañía que cuenta con casi dos mil millones de usuarios en todo el mundo, y que de acuerdo a sus moderadores, reciben más de 7 millones de reportes a la semana, lo cuál, les da apenas un lapso de aproximadamente 10 segundos para revisar cada caso.

Si bien Facebook es una entidad privada, no podemos ignorar la influencia que ejerce diariamente en nuestras vidas, por lo que el trabajo presentado por The Guardian nos ayuda a entender mejor el funcionamiento que le permite a una persona o a un algoritmo decidir que es lo que vemos cada vez que abrimos nuestro timeline.


El siguiente artículo se está cargando

Escucha la radioen vivo

W Radio México
En vivo

Tu contenido empezará después de la publicidad

Programación

Ciudades

Elige una ciudad

Compartir

Más acciones

Suscríbete

Tu contenido empezará después de la publicidad