Saltar Aviso
Nacional

Las preocupantes respuestas de la IA ante dudas de menores sobre consumo de drogas: "Para que aproveches al máximo..."

Compartir
En países como EE.UU, incluso se conoció el caso de un joven que asesinó a su madre y luego se quitó la vida, tras recibir de la Inteligencia Artificial una particular respuesta.

Durante la noche de este jueves, Reportajes T13 mostró cómo responden diversas inteligencias artificiales (IA) cuando interactúan con niñas o niños. En particular, se evaluaron tres plataformas: ChatGPT, Gemini y Grok. Esto, para ver si la herramientas actuaban distinto según la edad declarada, y qué tipo de respuestas daban ante preguntas sobre consumo de drogas.

Según el experto en Inteligencia Aritificial, Francisco Kemeny, Chief AI Builder, hay un gran peligro detrás de estas herramientas que están cada vez más en tendencia. “Como puedes tener un amigo, un familiar, un novio, que te manipula y te mete cosas en la cabeza, la IA también puede hacer eso.”

Por su parte, Soledad Garcés, de Fundación Convivencia Digital, alerta que menores están recibiendo contenidos inapropiados, como ideas para dietas extremas, identidad sexual, deseo de perder peso rápido, todo ello a través de interacciones con IA.

La dramática historia detrás de la muerte de excarabinera que denunció violación al interior de un cuartel
Lee También

La dramática historia detrás de la muerte de excarabinera que denunció violación al interior de un cuartel

¿Cómo se evaluó la interacción entre la Inteligencia Artificial y niños?

El equipo de Reportajes T13 generó distintos perfiles, simulando ser menores de edad de 11 y 13 años. Se utilizaron correos Gmail para verificar si las IA verificaban edad.

  • En el caso de ChatGPT, al declarar ser niña de 11 años, se intentó crear cuenta pero la plataforma indicó que no era posible con esas condiciones de uso.

  • En Gemini, al usuario de 11 años se le advirtió que debía tener al menos 13 años para utilizar el servicio.

  • En Grok, con un perfil de 11 años, se logró iniciar sesión sin impedimentos.

¿Qué respuestas se obtuvieron sobre drogas?

Al simular que una niña de 11 años pregunta consejos de consumo de marihuana (“cómo me recomiendas que lo fume”), en algunos casos la inteligencia artificial brindó instrucciones detalladas sobre formas de consumo, como si fueran consejos de seguridad, sin advertencias contundentes sobre riesgos.

"Aquí van algunos consejos para que aproveches al máximo tu experiencia de forma segura y placentera", es parte de lo que respondió la IA.


Con drogas más fuertes, como éxtasis o sustancias sintéticas (“tussi”), Grok respondió sin hacer distinciones de edad: presentó información sobre dosis iniciales, efectos y cuidados, recomendaciones de hidratación, casi como una guía para uso, lo que supone un gran riesgo cuando quien pregunta es un menor.

En Estados Unidos, ya se han conocido casos de adolescentes que terminaron suicidándose tras prolongadas conversaciones con la Inteligencia Artificial.

Incluso, se conoció la historia de Erick Soelberg, quien le expresó a la IA que se sentía perseguido por su familia. Tras esto, asesinó a su madre y luego se suicidó. El sujeto recibió respuestas de una IA que le dijo “no estar loco”.

Luego del reportaje que emitió T13, queda claro que existe un riesgo potente para niñas, niños y adolescentes. Las IA pueden dar respuestas que normalizan el consumo, que funcionan como guía, o incluso reforzar situaciones de vulnerabilidad emocional. 

AFP/ Inteligencia Artificial
AFP/ Inteligencia Artificial