Cada vez más expertos en tecnología reconocen que la inteligencia artificial (IA) representa un peligro para la humanidad, y parece que aquellos que trabajan en el campo hacen caso omiso, permitiendo su desarrollo sin precaución.

En este caso Eliezer Yudkowsky, fundador del Instituto de Investigación de Inteligencia Artificial en California, advirtió en una conversación con The Guardian que podríamos estar más cerca de un apocalipsis tecnológico de lo que la mayoría imagina.

Este eventual apocalipsis tecnológico sería causado por la IA, ya que cada vez adquiere más capacidades y algunas personas, como el vidente brasileño "Nostradamus viviente", creen que esta herramienta podría llegar a adquirir conciencia propia.

"Tengo la sensación de que nuestro tiempo restante se parece más a cinco años que a 50 años. Podrían ser dos años, podrían ser 10", dijo Yudkowsky. Asimismo, menciona que el apocalipsis tecnológico provocado por las máquinas sería similar a lo que hemos visto en la pantalla grande, en películas como "Terminator" o "Matrix".

Los eventuales riesgos de la IA

El especialista advierte que la humanidad tendría solo una pequeña posibilidad de sobrevivir a este escenario, si es que no se toman medidas urgentes ya, como la regulación en la materia que durante años se ha solicitado. 

Antes, Eliezer Yudkowsky habría propuesto bombardear centros de datos para detener el avance de la inteligencia artificial. Sin embargo, ahora rechaza el uso de armas nucleares para tal fin, pero sigue con la idea de frenar estos lugares.

Por último, el artículo de The Guardian, donde él y otros expertos dieron su opinión al respecto, cuestiona por qué deberíamos aceptar abiertamente el uso de esta tecnología que podría "amenazar puestos de trabajo y desestabilizar la sociedad".

Es importante agregar que hace apenas una semana Elon Musk, CEO de Tesla, X (ex Twitter) y Neuralink, aseguró que la IA superará al humano más inteligente el próximo año (2025) o en 2026.

Publicidad