Durante este viernes 3 de septiembre, Facebook confirmó haber deshabilitado la función de recomendación de temas, luego de que una de sus Inteligencias Artificiales etiquetara de manera errónea un video de hombres negros como “primates”.

El video en cuestión fue publicado por el medio británico The Daily Mail el pasado mes de junio y muestra el enfrentamiento entre un grupo de hombres contra algunos funcionarios del cuerpo de policía local; una vez terminada la reproducción, Facebook muestra un mensaje automático en el que recomienda seguir viendo contenido relacionado, pero en este caso preguntaba a los usuarios si “quiere seguir viendo videos de primates”.

La red social salió a pedir disculpas por este error que catalogaron de “inaceptable” en un comunicado de prensa enviado a The New York Times, donde el portavoz de la compañía, Dani Lever, aseguró que “si bien hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más progresos que hacer. Pedimos disculpas a cualquiera que haya visto estas recomendaciones ofensivas”.

Facebook explicó que el mensaje no fue introducido por ningún empleado, sino que fue uno de sus sistemas de Inteligencia Artificial el encargado de analizar el video y clasificarlo, por lo que decidieron desactivarlo hasta que se pueda solucionar el problema y así evitar que vuelva a ocurrir.

Este escándalo deja en evidencia el sistema de automatización, ya que demuestra que el aprendizaje automático de las IA se basa en datos de ciertos grupos sociales e ignora a las minorías, justo un año después de la movilización de la campaña Black Lives Matter en varios países del mundo.

Publicidad