Las conversaciones con chatbots de IA pueden influir significativamente en la dirección del voto

Dos equipos de investigación, con algunos autores comunes, muestran en dos trabajos separados que la interacción con chatbots que utilizan inteligencia artificial (IA) puede cambiar significativamente la opinión de un votante sobre un candidato presidencial o sobre una propuesta política. Uno de los estudios, publicado en Nature, se realizó en tres países (EE.UU., Canadá y Polonia), mientras que el otro se desarrolló en Reino Unido y se publica en Science. Las conclusiones de ambos coinciden: la capacidad de persuasión de estas herramientas no se debe tanto a una manipulación psicológica como a la acumulación de afirmaciones basadas en hechos que respaldan su postura. Sin embargo, esta información no es siempre precisa y cuanto más aumenta la persuasión, también lo hacen la imprecisión y la invención.  

04/12/2025 - 20:00 CET
Reacciones

Daniel - Chatbot

Daniel Gayo Avello

Profesor titular de la Universidad de Oviedo en el área “Lenguajes y Sistemas Informáticos”

Science Media Centre España

Ambos trabajos son muy sólidos y, además, coinciden en sus principales conclusiones, aunque, por supuesto, no están libres de limitaciones. El trabajo de Lin et al. tiene un diseño prerregistrado, trabajó con ciudadanos de varios países (EE.UU., Canadá y Polonia) y ofrece un análisis riguroso que refuerza la verosimilitud de sus resultados. Por su parte, el trabajo de Hackenburg et al. destaca por su escala tanto en el número de personas (casi 77.000), como de conversaciones (91.000) y modelos lingüísticos involucrados (tanto de pesos abiertos como comerciales), lo que le permitió realizar una evaluación sistemática de los distintos aspectos técnicos detrás de la capacidad persuasiva de los chatbots. En ambos casos, a pesar de la artificialidad de los entornos experimentales, se trata de trabajos exhaustivos, transparentes y muy interesantes. 

Ambos artículos coinciden con la evidencia disponible que destaca el poder del diálogo y el razonamiento basado en hechos y evidencias como principal vía de persuasión, pero ofrecen novedades interesantes. Por ejemplo, aunque la mayor parte de la literatura disponible afirma que los mensajes persuasivos deben personalizarse según los valores de la audiencia, los investigadores no encontraron que dicha personalización ofrezca grandes beneficios. Muestran cómo las conversaciones con chatbots generan efectos persuasivos superiores a los observados con mensajes políticos tradicionales y, además, el principal mecanismo de persuasión no son las estrategias psicológicas, sino la presentación de una gran densidad de información factual y contrastable.  

Ahora bien, hay una contrapartida importante: cuando se solicita al chatbot que sea más persuasivo, se corre el riesgo de que la cantidad de información inexacta que ofrezca sea mayor. Resulta curioso, además, que los artículos muestran una asimetría sistemática en la precisión factual de la información generada por los chatbots: cuando tienen que persuadir para votar a candidatos de derechas ofrecen más información inexacta que cuando deben persuadir para votar a candidatos de izquierdas.  

La principal implicación es que el escenario que describen ha dejado de ser hipotético para ser posible (y preocupante): emplear chatbots para persuadir a ciudadanos de votar en un sentido concreto mediante un diálogo supuestamente basado en hechos pero que, a la luz de sus resultados, puede sacrificar la factualidad en aras de aumentar la capacidad de persuasión. Aunque, ¡atención!, ninguno de los artículos afirma que la información inexacta sea más persuasiva, solo que al aumentar la capacidad de persuasión tiende a aumentar la cantidad de información inexacta.  

[En cuanto a posibles limitaciones] Ambos artículos describen situaciones experimentales con características que pueden llevar a que en contextos y campañas reales no se observasen los mismos resultados. Así, en el trabajo de Lin et al. debemos tener en cuenta que: 

  1. Los participantes se inscribieron de forma voluntaria (sesgo de autoselección). 
  2. No es lo mismo un diálogo controlado (y donde el humano sabe que está participando en un experimento que involucra un chatbot) que una situación de campaña. 
  3. No se midió un comportamiento real como el voto. 
  4. Los efectos en EE.UU fueron inferiores a los observados en los otros países.  
  5. El hecho de que la persuasión por chatbot pueda llevar a que este facilite información inexacta abre la puerta a una serie de riesgos (y dilemas éticos) muy importantes y que requieren mayor atención.  

Por lo que respecta a Hackenburg et al., este trabajo también tiene limitaciones:  

  1. Se realizó únicamente en Reino Unido y, en consecuencia, no se puede generalizar directamente a cualquier otro país. 
  2. Los participantes estaban remunerados, lo cual aleja aún más las condiciones experimentales de las condiciones reales. 
  3. La necesidad del consentimiento informado y el briefing previo también aleja las condiciones experimentales de las de una campaña real. 
  4. De nuevo, el problema del desequilibrio entre persuasión y veracidad queda sin resolver de manera satisfactoria.
Declara no tener conflicto de interés
ES

Walter - chatbot

Walter Quattrociocchi

Director del Laboratorio de Datos y Complejidad para la Sociedad de la Universidad de Roma La Sapienza (Italia)

Science Media Centre España

Estos estudios son metodológicamente sólidos y muy relevantes. Se basan en muestras muy grandes, experimentos cuidadosamente diseñados y mediciones transparentes de los resultados del cambio de opinión tras la interacción con sistemas de IA. El resultado principal —que las conversaciones breves con grandes modelos lingüísticos pueden producir cambios cuantificables en las actitudes políticas— es robusto en diferentes contextos y conjuntos de datos. El comentario que acompaña a estos estudios en Science enfatiza correctamente que estos sistemas no son ‘persuasores sobrehumanos’ en un sentido psicológico, sino que son eficaces porque generan sistemáticamente densos flujos de información, independientemente de su veracidad.  

Lo que estos artículos realmente aportan no es simplemente la demostración de que la IA puede persuadir, sino una explicación de por qué lo hace. La evidencia muestra que la persuasión aumenta principalmente a través de la densidad de información, no a través de la personalización, la manipulación emocional o la focalización ideológica. Los estudios también muestran que el entrenamiento posterior dirigido a la persuasión es sustancialmente más importante que el tamaño del modelo. Y lo que es más importante, existe una disyuntiva clara y preocupante: las mismas técnicas que maximizan el impacto persuasivo reducen sistemáticamente la precisión fáctica. La persuasión y la veracidad no crecen juntas: divergen. Esto significa que el mecanismo que impulsa la influencia no es la comprensión, sino el volumen y la fluidez.  

Aquí es donde se hace visible la mayor importancia de estos resultados. Estos hallazgos apuntan a lo que llamo un ‘cambio epistémico’ o epistemia: una transformación en cómo opera el conocimiento en la esfera pública. Durante décadas, las plataformas digitales mediaron la información principalmente mediante el filtrado y la clasificación. Los sistemas generativos hacen algo fundamentalmente diferente: reemplazan la recuperación de información por la síntesis del lenguaje. Al hacerlo, eluden los procesos cognitivos que normalmente estructuran el juicio, la verificación y la evaluación. No se trata de máquinas que mienten. Se trata de sistemas que generan lenguaje plausible sin realizar ningún acto epistémico.  

El peligro, por lo tanto, no es solo la desinformación. Es algo más estructural. Cuando la información se genera en lugar de evaluarse, la plausibilidad reemplaza al juicio. Estos experimentos muestran este desplazamiento muy claramente: los participantes son persuadidos no por la calidad de los argumentos, sino por su cantidad. La veracidad o falsedad de las afirmaciones pasa a un segundo plano frente a la mera acumulación de afirmaciones.  

También hay límites importantes que destacar. Estos experimentos miden cambios a corto plazo tras interacciones breves, mientras que la exposición en el mundo real es continua, inmersiva y acumulativa. Por esta razón, los efectos medidos no deben interpretarse como límites superiores. En todo caso, probablemente sean conservadores. Además, los participantes en estos estudios eran conscientes de que estaban interactuando con una IA. En entornos cotidianos, donde los sistemas generativos se integran en motores de búsqueda, plataformas de mensajería y herramientas de productividad, la confianza contextual puede amplificar aún más los efectos.  

En resumen, el principal riesgo que destaca este trabajo no es simplemente que la IA pueda influir en las opiniones; es que la IA normaliza un entorno informativo donde el juicio se sustituye por la generación y la evaluación por la fluidez. Esto no es solo un problema tecnológico, sino epistémico, y estos estudios se encuentran entre los primeros en demostrarlo empíricamente.

No declara conflicto de interés
ES
Publicaciones
The levers of political persuasion with conversational artificial intelligence
    • Artículo de investigación
    • Revisado por pares
    • Humanos
Revista
Science
Fecha de publicación
Autores

Hackenburg et al.

Tipo de estudio:
  • Artículo de investigación
  • Revisado por pares
  • Humanos
Persuading voters using human–artificial intelligence dialogues
    • Artículo de investigación
    • Revisado por pares
    • Humanos
Revista
Nature
Fecha de publicación
Autores

Lin et al.

Tipo de estudio:
  • Artículo de investigación
  • Revisado por pares
  • Humanos
Las 5W +1
Publica
FAQ
Contacto