Autor/es reacciones

Carlos Carrasco Farré

Profesor en la Toulouse Business School (Francia), miembro del equipo editorial de PLoS ONE (Ciencias Sociales) y doctor en Management Sciences (ESADE Business School)

Me parece un paper interesante y necesario: muestra que la IA puede tener razón y, aun así, equivocarse. Corregir un dato falso está bien; el problema es cuando el objetivo es reconocer la creencia de quien habla y el modelo la evita con un fact-check prematuro. Si yo digo: ‘creo que X’, primero quiero que el sistema registre mi estado mental y, después, si procede, que contraste el hecho. Esa confusión entre atribuir creencias y verificar hechos no es un tecnicismo: es el corazón de las interacciones críticas en consulta médica, en un juzgado o en la política. Dicho de otro modo: la IA acierta el dato, pero falla a la persona. 

Lo interesante (y preocupante) es lo fácil que se activa esta miopía social: basta con que la creencia esté en primera persona para que muchos modelos se equivoquen. Eso obliga a repensar las guías de uso en contextos sensibles: primero, reconoce el estado mental; luego, corrige. Esto es una alerta de diseño para una IA responsable. Mi lectura es que este trabajo no demoniza a los modelos, pero nos recuerda que, si queremos una IA segura y útil, debemos enseñarle a escuchar antes que a educar. Y eso implica rediseñar prompts, métricas y despliegues con una regla simple: primero, empatía; luego, evidencia.  

ES