Autor/es reacciones

Walter Quattrociocchi

Director del Laboratorio de Datos y Complejidad para la Sociedad de la Universidad de Roma La Sapienza (Italia)

Estos estudios son metodológicamente sólidos y muy relevantes. Se basan en muestras muy grandes, experimentos cuidadosamente diseñados y mediciones transparentes de los resultados del cambio de opinión tras la interacción con sistemas de IA. El resultado principal —que las conversaciones breves con grandes modelos lingüísticos pueden producir cambios cuantificables en las actitudes políticas— es robusto en diferentes contextos y conjuntos de datos. El comentario que acompaña a estos estudios en Science enfatiza correctamente que estos sistemas no son ‘persuasores sobrehumanos’ en un sentido psicológico, sino que son eficaces porque generan sistemáticamente densos flujos de información, independientemente de su veracidad.  

Lo que estos artículos realmente aportan no es simplemente la demostración de que la IA puede persuadir, sino una explicación de por qué lo hace. La evidencia muestra que la persuasión aumenta principalmente a través de la densidad de información, no a través de la personalización, la manipulación emocional o la focalización ideológica. Los estudios también muestran que el entrenamiento posterior dirigido a la persuasión es sustancialmente más importante que el tamaño del modelo. Y lo que es más importante, existe una disyuntiva clara y preocupante: las mismas técnicas que maximizan el impacto persuasivo reducen sistemáticamente la precisión fáctica. La persuasión y la veracidad no crecen juntas: divergen. Esto significa que el mecanismo que impulsa la influencia no es la comprensión, sino el volumen y la fluidez.  

Aquí es donde se hace visible la mayor importancia de estos resultados. Estos hallazgos apuntan a lo que llamo un ‘cambio epistémico’ o epistemia: una transformación en cómo opera el conocimiento en la esfera pública. Durante décadas, las plataformas digitales mediaron la información principalmente mediante el filtrado y la clasificación. Los sistemas generativos hacen algo fundamentalmente diferente: reemplazan la recuperación de información por la síntesis del lenguaje. Al hacerlo, eluden los procesos cognitivos que normalmente estructuran el juicio, la verificación y la evaluación. No se trata de máquinas que mienten. Se trata de sistemas que generan lenguaje plausible sin realizar ningún acto epistémico.  

El peligro, por lo tanto, no es solo la desinformación. Es algo más estructural. Cuando la información se genera en lugar de evaluarse, la plausibilidad reemplaza al juicio. Estos experimentos muestran este desplazamiento muy claramente: los participantes son persuadidos no por la calidad de los argumentos, sino por su cantidad. La veracidad o falsedad de las afirmaciones pasa a un segundo plano frente a la mera acumulación de afirmaciones.  

También hay límites importantes que destacar. Estos experimentos miden cambios a corto plazo tras interacciones breves, mientras que la exposición en el mundo real es continua, inmersiva y acumulativa. Por esta razón, los efectos medidos no deben interpretarse como límites superiores. En todo caso, probablemente sean conservadores. Además, los participantes en estos estudios eran conscientes de que estaban interactuando con una IA. En entornos cotidianos, donde los sistemas generativos se integran en motores de búsqueda, plataformas de mensajería y herramientas de productividad, la confianza contextual puede amplificar aún más los efectos.  

En resumen, el principal riesgo que destaca este trabajo no es simplemente que la IA pueda influir en las opiniones; es que la IA normaliza un entorno informativo donde el juicio se sustituye por la generación y la evaluación por la fluidez. Esto no es solo un problema tecnológico, sino epistémico, y estos estudios se encuentran entre los primeros en demostrarlo empíricamente.

ES