Mundo

El hombre que demandó a Meta por el asesinato de su padre

bbc
Por BBC News Mundo
Abrham Meareg forma parte de un grupo de etíopes que han presentaron una multimillonaria querella contra la firma tecnológica, por no tomar medidas para prevenir los mensajes de odio.

El algoritmo de Facebook está acusado de ayudar a propagar el odio y la violencia durante la guerra civil que sufrió Etiopía.

La acusación figura en la demanda que un grupo de personas presentó contra Meta, propietaria de Facebook. Entre los querellantes está Abrham Meareg, quien es el hijo de un académico etíope que fue asesinado a tiros después de ser atacado en publicaciones aparecidas en la red social.

Los accionantes reclaman la creación un fondo de US$ 2.000 millones para las víctimas del odio en Facebook y que la empresa adopte cambios en el algoritmo de su plataforma.

Desde Meta aseguran que han invertido en moderación y en tecnología para eliminar los mensajes que inciten a la violencia.

Un representante de la compañía dijo que el discurso de odio estaba prohibido.

"Nuestro trabajo de seguridad e integridad en Etiopía está guiado por los comentarios de las organizaciones locales de la sociedad civil y las instituciones internacionales", dijo el vocero.

Reuters

Calumnias

El caso contra Meta fue presentado ante la Corte Suprema de Kenia y cuenta con el apoyo de Foxglove, una organización que lucha por hacer que las tecnológicas ofrezcan un trato igualitario a todos sus usuarios.

Meta tiene un centro de moderación de contenidos en Nairobi, la capital de Kenia.

Cientos de miles de personas han muerto en el conflicto entre el gobierno etíope y las fuerzas rebeldes de la región norteña de Tigray, y otras 400.000 viven en condiciones de hambruna.

El mes pasado, las partes lograron un sorpresivo un acuerdo de paz, pero recientemente ha habido un aumento en los asesinatos por motivos étnicos entre las comunidades de habla amhara y oromo.

El año pasado, el padre de Meareg se convirtió en una de las víctimas de la violencia del país.

El 3 de noviembre de 2021, el profesor Meareg Amare Abrha fue seguido desde la universidad donde dictaba clases por hombres armados en motocicletas, los cuales le dispararon a quemarropa cuando se disponía a entrar en su casa.

Las amenazas de sus atacantes impidieron que los testigos acudieran en su ayuda mientras yacía sangrando, dice su hijo. Murió tirado en el suelo siete horas después.

Un hombre pasa por una casa atacada en TigrayGetty Images

Antes del ataque, el catedrático fue calumniado e información personal fue revelada a través de publicaciones de Facebook, aseguró su hijo.

A pesar de las repetidas denuncias sobre lo que estaba ocurriendo, la plataforma "dejó estas publicaciones hasta que fue demasiado tarde", agregó.

Uno de los mensajes apenas fue retirado después del asesinato del profesor.

Y otro, que la plataforma se había comprometido a eliminar, seguía en línea hasta el 8 de diciembre de 2022.


Analysis de Peter Mwai, BBC Reality Check, Nairobi

Esta acción representa un hito dentro de los intentos por reprender legalmente a una empresa de redes sociales por sus acciones durante el conflicto en Etiopía.

Los críticos dicen que Meta y otras compañías de redes sociales hacen muy poco para evitar que se comparta y difunda desinformación y contenido que promueva el odio y la incitación contra varios grupos étnicos. Y en algunos casos, el contenido tarda demasiado en eliminarse, principalmente después de que las personas lo denuncian.

Otros afirman que la compañía ha sido injusta en su represión del contenido odioso, al enfocarse en publicaciones escritas en algunos idiomas de manera desproporcionada.

Meta siempre ha insistido en que ha invertido mucho en la capacidad de capturar contenido de odio e incendiario en los idiomas más hablados en el país.

Tiene moderadores de contenido familiarizados con los principales idiomas locales, pero también se basa en inteligencia artificial y socios locales para marcar el contenido. Y nunca ha estado claro cuántos moderadores trabajan con Meta centrándose en Etiopía.


Retrato de Frances Haugen testificando ante el Congreso de EE.UU.Getty Images

"Lamentablemente inadecuado"

"Si Facebook hubiera detenido la propagación del odio y moderado las publicaciones correctamente, mi padre aún estaría vivo", dijo Meareg.

El demandante aseguró que quiere evitar que otra familia sufra como la suya, al tiempo que reclamó "una disculpa personal" de Meta.

En una declaración jurada presentada ante el tribunal, Meareg alegó que el algoritmo de Facebook promueve contenido "de odio e incitación", porque es probable que atraiga más interacción de los usuarios.

También afirmó que la moderación de contenido de Facebook en África es "lamentablemente inadecuada", con muy pocos moderadores que se ocupan de las publicaciones en los idiomas como amárico, oromo y tigrinya.

Un programador trabajando en dos computadores.Getty Images

Meta, propietaria de Facebook, le dijo a BBC News: "Empleamos personal con conocimiento y experiencia local y continuamos desarrollando nuestras capacidades para detectar contenido infractor en los idiomas más hablados en el país, incluidos amárico, oromo, somalí y tigrinya".

Desde la empresas sostienen que Etiopía es una alta prioridad, aunque menos del 10% de la población usa Facebook, y explicaron que los pasos que ha tomado incluyen:

  • Reducir la viralidad de las publicaciones.
  • Ampliar las políticas de prevención contra la violencia y su incitación.
  • Mejorar la aplicación.

Pero esta no es la primera vez que se acusa a Facebook de hacer muy poco para detener la difusión de contenido que promueve el odio étnico y la violencia en Etiopía.

En 2021, Frances Haugen, exempleada de la plataforma, aseveró al Senado de Estados Unidos que el algoritmo de la plataforma estaba "fomentando la violencia étnica captando los sentimientos extremos, la división" ya que esas publicaciones atraían una gran participación.

Asimismo, dijo que Facebook no podía identificar adecuadamente el contenido peligroso y carecía de experiencia suficiente en muchos idiomas locales, incluidos algunos que se hablan en Etiopía.

Getty Images

Otros demandantes en el caso incluyen al Instituto Katiba y Fisseha Tekle, quien denunció que las fallas de moderación de Facebook hicieron imposible su reportaje sobre derechos humanos en el conflicto, para Amnistía Internacional, y arriesgó la vida de su familia.

Los demandantes solicitan a la justicia del país africano que ordene a Facebook que tome medidas para remediar la situación, entre las cuales figuran:

  • Crear un fondo de restitución de unos 200.000 millones de chelines kenianos (US$ 1.600 millones) para las víctimas del odio y la violencia incitados en Facebook y otros 50.000 millones (US$ 400 millones) para daños similares causados por publicaciones patrocinadas.
  • Impedir que su algoritmo recomiende "contenido incitador, odioso y peligroso".
  • Y emplear a suficientes moderadores para traducir el contenido local, asegurando la equidad entre en Nairobi y de EE.UU la hora de moderar los contenidos de los usuarios.