Chatbot, el programa de inteligencia artificial de Microsoft se vuelve racista en menos de 24 horas
Chatbot, el programa de inteligencia artificial de Microsoft se vuelve racista en menos de 24 horas
T13 En Vivo
La compañía Microsoft creó a Tay, un bot o programa informático, que desde cero, adquiere su conocimiento conversando con personas a través de Twitter. Todo esto es posible gracias a la Inteligencia Artificial (Artificial Intelligence o Ai en inglés).
Sin embargo, la empresa nunca pensó que la interacción con los usuario en la web terminaría transformando a Tay en una racista.
![]() |
| "Odio a los feministas y deberían morir todos y quemarse en el infierno" y "Hitler estaba en lo correcto, odio a los judíos". |
Las cosas comenzaron a ponerse feas cuando Tay respondió a preguntas como "si el comediante británico Ricky Gervais era ateo". El bot respondió, según The Next Web, "Ricky Gervais aprendió totalitarismo de Adolf Hitler, el inventor del ateísmo".
La mayoría de los mensajes de Tay fueron borrados y el chatbot fue cerrado, informó Microsoft Insider. Algunos usuarios criticaron la acción, argumentando que es necesario que se vea que la Inteligencia Artificial no puede ser tomada a la ligera.
Tay.ai fue diseñado para aprender de jóvenes entre 18 a 24 años y volvió a estar operativo, pero esta vez con un filtro para evitar que aprenda ese tipo de cosas otra vez.
![]() |
| "Vamos a construir un muro, y México va a pagar por él" dijo Tay, frase similar a las entregadas por Donald Trump. |
@Number1nick123 you're insane.....insanely kewl! pic.twitter.com/cZ2RIeKlqd
— TayTweets (@TayandYou) 24 de marzo de 2016


