Smart13

De capa caída: Estudio revela que respuestas de ChatGPT son cada vez menos precisas

T13
Compartir
Una investigación realizada por la Universidad de Stanford analizó la evolución que ha tenido este chatbot en los últimos meses.

Durante este año, ChatGPT se convirtió en todo un hit y en poco tiempo, logró posicionarse como una de las aplicaciones más atractivas disponibles en Internet. 

Esta popularidad, sin embargo, se fue desinflando con el pasar de los meses y ya durante el segundo semestre, registró una baja importante en el tráfico de su sitio. 

Este chatbot desarrollado por Open AI, que es capaz de responder a casi cualquier cosa en base a Inteligencia Artificial, ha ido presentando algunos problemas. Resulta que su exactitud no está al nivel que se pensaba y que, además, su precisión ha ido disminuyendo con el tiempo. 

Así lo demostró un estudio publicado recientemente por un grupo científicos de la Universidad de Stanford, dio cuenta de cómo ha evolucionado el rendimiento de esta plataforma, que cada vez se ha vuelto menos confiable para los usuarios. En la investigación, se analizó el comportamiento de GPT-3.5 y GPT-4. 

James Zou, profesor de informática del establecimiento mencionado, señaló que “cuando ajustamos un modelo de lenguaje grande para mejorar su desempeño en ciertas tareas, eso en realidad puede tener muchas consecuencias no deseadas, que en realidad podrían perjudicar el desempeño de este modelo en otras tareas". 

Esto produjo, durante los últimos meses, una caída importante en el porcentaje de información correcta que proporciona este chatbot, sobre todo en torno a ciertas temáticas, como las matemáticas, las ciencias exactas y también temas de étnicos y de género. 

Uno de los resultados que reveló esta publicación es que, además de cometer errores en determinados aspectos, en otros entregó respuestas evasivas, o simplemente, se negó a explicar lo que se le estaba preguntando. 

Señal T13 En Vivo
Etiquetas de esta nota