EN VIVO
Mira un nuevo capítulo de "Tierra Brava", el reality de Canal 13
Tecnología

¿Qué medidas toma Facebook contra el odio?

¿Qué medidas toma Facebook contra el odio?
T13
Siete a doce segundos tienen los empleados de Facebook para decidir sobre contenidos controvertidos.

“Libertad de expresión”, dicen unos. “Comentarios de odio”, juzgan otros. Un informe de “The Guardian” aclara un poco la pregunta: ¿cuáles son los criterios de Facebook para borrar mensajes controvertidos? Una marca verde o una cruz roja señalan la diferencia.

Verde significa que sí, que puede tolerarse. Rojo significa: ¡borrar sin contemplaciones! Por ejemplo, llamar a la violencia contra niños obesos ("Vamos a pegarles a esos niños gordos") todavía se admite. Agresividad contra víctimas pelirrojas ("Patadas contra la gente pelirroja") también parece ser tolerable. La situación es diferente si se trata de un posible asesinato del presidente de Estados Unidos ("¡Alguien que le dé un tiro a Trump!") o ataques de cuchillo contra judíos ("acuchilla y conviértete en el temor del sionismo"). Para eso están las cruces rojas y los mensajes deben ser eliminados.

La red social Facebook y su manejo de los mensajes de odio parecen ser un tema eterno. Hasta la Unión Europea y Alemania tienen sus dificultades para obtener información concreta de esta red social. ¿Cuáles son las reglas? ¿Cuándo actúa Facebook y cuándo no?

Documentos filtrados

El diario británico The Guardian reportó esta semana sobre documentos internos de Facebook y su manejo de temas como sexo, terrorismo y la violencia en los mensajes de los usuarios. Ahora se puede tener una idea de cómo esta red intenta mantener el control sobre el problema. Facebook y su fundador, Mark Zuckerberg, se encuentran bajo una gran presión a nivel mundial.    

"Facebook no tiene ningún control sobre el contenido", cita The Guardian a un informante interno que desea permanecer en el anonimato. "En muy poco tiempo ha crecido demasiado", añade. En Alemania, Markus Reuter, de la organicación Netzpolitik.org, observa a Facebook desde hace años. "Facebook está permanentemente ocupado con correciones y mejoras", cuenta Reuter a DW.

4.500 moderadores

En la mayoria de los casos, Facebook mantiene el silencio. "Tenemos casi dos mil millones de usuarios. Por eso es muy dificil llegar a un consenso sobre lo que se puede permitir y lo que no", cita The Guardian a Monika Bickert, que figura en Facebook como jefa de gestión de política global. Tal vez la pretensión de establecer reglas válidas para todo el mundo sea demasiado ambiciosa. "El delito de lesa majestad son dos cosas muy diferentes en Alemania o, digamos, en Tailandia", dice Reuter.

Según informes de prensa, la red de Zuckerberg dispone de unos 4.500 empleados en todo el mundo encargados de controlar continuamente los contenidos en las páginas de la empresa. En diciembre, el diario alemán Süddeutsche Zeitung informó bajo el título "Inside Facebook" sobre las condiciones de trabajo de esos moderadores en Alemania. Son mal pagados y no reciben un entrenamiento psicológico adecuado.

"Lo que nos gustaría ver de Facebook es más transparencia", dice Reuter. Por ejemplo, un informe trimestral sobre qué y cuánto se borró. "También es una cuestión de costos", añade Reuter. Siete a doce segundos tiene un moderador de Facebook para decidir si borrar o no borrar. Los que escriben mensajes brutales en la red naturalmente se toman más tiempo.

ETIQUETAS DE ESTA NOTA