Mundo

EE.UU: Suspenden uso de chatbot contra trastornos alimenticios por entregar consejos dañinos a consultantes

Getty Images - Referencial
Marcial Cabezas González
Compartir
Desde la Asociación de Trastornos de Conducta Alimentaria de EE.UU. aseguraron que las respuestas del bot "va en contra de nuestras políticas y creencias fundamentales como organización".

En Estados Unidos, controversia generó el uso de un chatbot que entregaba consejos potencialmente perjudiciales para personas que sufren de trastornos alimentarios.

Según recoge WIRED, se trató de Tessa, utilizado por la Asociación Nacional de Trastornos de Conducta Alimentaria de EE.UU. (NEDA en inglés), el cual comenzó a dar recomendaciones sobre reducción de calorías y pérdida de peso que podían agravar los trastornos alimenticios de quienes los padecen y consultaban el programa.

El hecho ocurrió luego que en marzo pasado, la NEDA cerrara su línea de ayuda telefónica, el cual, operaba hace ya dos décadas por un pequeño grupo remunerado y voluntarios, para luego, dar paso a Tessa, el chatbot.

Su directora ejecutiva, Liz Thompson, aseguró que el bot fue pausado porque el lenguaje de sus respuestas "va en contra de nuestras políticas y creencias fundamentales como organización dedicada a los trastornos alimentarios".

"Era para complementar": Abogado usó ChatGPT en un caso y le inventó todos los precedentes legales
Lee También

"Era para complementar": Abogado usó ChatGPT en un caso y le inventó todos los precedentes legales

Según recoge The Guardian, la activista Sharon Maxwell, señaló que Tessa le ofreció "consejos sobre alimentación saludable" y tips para perder peso, recomendándole déficit calórico de 500 a mil calorías al día, además de pesarse y medirse semanalmente para controlar el peso".

"Si hubiera accedido a este chatbot cuando estaba en pleno trastorno de la conducta alimentaria, NO habría obtenido ayuda para mi trastorno. Si no hubiera obtenido ayuda, no estaría viva hoy", escribió Maxwell.

La directora ejecutiva de NEDA precisó al citado medio que el chatbot no estaba destinado a reemplazar la línea de ayuda, sino que se creó como un programa separado y que no funciona como ChatGPT u otra inteligencia artificial.

"Está bien": Joe Biden sufrió caída durante acto de la Fuerza Aérea estadounidense
Lee También

"Está bien": Joe Biden sufrió caída durante acto de la Fuerza Aérea estadounidense

"Tuvimos razones comerciales para cerrar la línea de ayuda y estábamos en ese proceso de evaluación durante tres años", añadió.

Asimismo, explicó que "un chatbot, incluso un programa altamente intuitivo, no puede reemplazar la interacción humana".

Señal T13 En Vivo
/* LUTO CARABINEROS */ /* FIN LUTO CARABINEROS */