Listen

Description

Un reciente artículo publicado por la revista Rolling Stone, consignó que usuarios de todo el mundo están reportando que el uso prolongado de ChatGPT les había provocado delirios que van desde transformaciones espirituales, misiones místicas, rupturas familiares, y relación obsesiva con esta tecnología. Y en otros casos, se han identificado casos donde la propia IA entrega datos erróneos o incluso “inventa” información.

En conversación con #SinPretexto, Gustavo Alcántara, académico de la Facultad Tecnológica USACH, señaló que estas denominadas “alucinaciones de la IA” se producen cuando hay “ciertas respuestas que buscan complacer al usuario, entendiendo también la historia de interacción con él. Es por eso, que OpenIA brinda la opción de guardar en memoria este historial de interacción (…) se dan casos de desintegración, con temas que nada tienen que ver con la realidad”.

Eso sí, Alcántara fue cauto y apuntó a que estos “delirios”, más que por la tecnología en sí, se producen por el mal uso por parte de los usuarios. “Hablar de temas delicados, profundos, que tienen que ver con la vida personal es inadecuado. Son herramientas que están en entrenamiento para hacer tareas en específico, pero no para funcionar como consejeros personales”, finalizó.