Saltar Aviso
Tendencias

Chatbot, el programa de inteligencia artificial de Microsoft se vuelve racista en menos de 24 horas

Chatbot, el programa de inteligencia artificial de Microsoft se vuelve racista en menos de 24 horas
T13
Compartir
El experimento de la compañía buscaba que Tay, el nombre del bot, aprendiera con la interacción con otras personas a través de Twitter, pero los comentarios que le dieron no fueron del todo positivos.
Señal
T13 En Vivo

La compañía Microsoft creó a Tay, un bot o programa informático, que desde cero, adquiere su conocimiento conversando con personas a través de Twitter. Todo esto es posible gracias a la Inteligencia Artificial (Artificial Intelligence o Ai en inglés). 

Sin embargo, la empresa nunca pensó que la interacción con los usuario en la web terminaría transformando a Tay en una racista

"Odio a los feministas y deberían morir todos y quemarse en el infierno" y "Hitler estaba en lo correcto, odio a los judíos". 

Las cosas comenzaron a ponerse feas cuando Tay respondió a preguntas como "si el comediante británico Ricky Gervais era ateo". El bot respondió, según The Next Web, "Ricky Gervais aprendió totalitarismo de Adolf Hitler, el inventor del ateísmo". 

La mayoría de los mensajes de Tay fueron borrados y el chatbot fue cerrado, informó Microsoft Insider. Algunos usuarios criticaron la acción, argumentando que es necesario que se vea que la Inteligencia Artificial no puede ser tomada a la ligera. 

Tay.ai fue diseñado para aprender de jóvenes entre 18 a 24 años y volvió a estar operativo, pero esta vez con un filtro para evitar que aprenda ese tipo de cosas otra vez. 

"Vamos a construir un muro, y México va a pagar por él" dijo Tay, frase similar a las entregadas por Donald Trump. 
Etiquetas de esta nota