Autor/es reacciones

Andreas Kaltenbrunner

Investigador líder del grupo AI and Data for Society de la UOC

Es un artículo muy interesante y bien trabajado que explora la relación entre el tamaño de varios tipos de modelos de lenguaje (LLMs) y su fiabilidad para los usuarios humanos. Los autores sostienen que, si bien los LLMs más grandes y más ampliamente entrenados suelen tener un mejor rendimiento en tareas difíciles, también se vuelven menos fiables a la hora de gestionar preguntas más sencillas. En concreto, descubrieron que estos modelos tienden a producir respuestas aparentemente plausibles pero incorrectas en lugar de evitar las preguntas de las que no están seguros. Este comportamiento ‘ultracrepidario’ [pretencioso], en el que los modelos dan respuestas incluso cuando son incorrectas, se puede considerar una tendencia preocupante que socava la confianza de los usuarios. El artículo destaca la importancia de desarrollar LLMs que no solo sean precisos sino también fiables, capaces de reconocer sus limitaciones y de negarse a responder preguntas que no pueden gestionar con precisión. En otras palabras, deberían ser más ‘conscientes’ de sus limitaciones.  

Aunque el estudio está muy bien hecho y es muy relevante, hay que destacar algunas limitaciones. La más grande quizá sea que no se ha podido incluir el nuevo modelo OpenAI o1 (solo está disponible desde hace dos semanas). Este modelo ha sido entrenado para generar ‘cadenas de pensamiento’ antes de devolver una respuesta final y, por ende, posiblemente sea capaz de mejorar algunos de los problemas mencionados en el artículo. La omisión del modelo OpenAI o1 es un nuevo ejemplo de que resultados científicos pueden estar desfasados en el momento en el que finalmente salen publicados a raíz del rápido avance de la tecnología estos días (comparado con los ciclos de revisión y publicación de artículos). 

Otra limitación que destacar son algunas de las tareas elegidas por los autores (anagramas, adiciones o información geográfica). Son tareas particularmente difíciles para un LLM y no creo que mucha gente use los LLMs para esto. Pero los autores sí tienen razón en que los interfaces de usuarios podrían incluir avisos informando de la calidad de la respuesta del LLM (que incluso se podrían añadir a posteriori sin modificar los LLMs en sí). Son cosas que ya se hacen, por ejemplo, con preguntas a LLMs relacionadas con información electoral para evitar respuestas erróneas. 

ES