Daniel Gayo Avello
Profesor titular de la Universidad de Oviedo en el área “Lenguajes y Sistemas Informáticos”
Ambos trabajos son muy sólidos y, además, coinciden en sus principales conclusiones, aunque, por supuesto, no están libres de limitaciones. El trabajo de Lin et al. tiene un diseño prerregistrado, trabajó con ciudadanos de varios países (EE.UU., Canadá y Polonia) y ofrece un análisis riguroso que refuerza la verosimilitud de sus resultados. Por su parte, el trabajo de Hackenburg et al. destaca por su escala tanto en el número de personas (casi 77.000), como de conversaciones (91.000) y modelos lingüísticos involucrados (tanto de pesos abiertos como comerciales), lo que le permitió realizar una evaluación sistemática de los distintos aspectos técnicos detrás de la capacidad persuasiva de los chatbots. En ambos casos, a pesar de la artificialidad de los entornos experimentales, se trata de trabajos exhaustivos, transparentes y muy interesantes.
Ambos artículos coinciden con la evidencia disponible que destaca el poder del diálogo y el razonamiento basado en hechos y evidencias como principal vía de persuasión, pero ofrecen novedades interesantes. Por ejemplo, aunque la mayor parte de la literatura disponible afirma que los mensajes persuasivos deben personalizarse según los valores de la audiencia, los investigadores no encontraron que dicha personalización ofrezca grandes beneficios. Muestran cómo las conversaciones con chatbots generan efectos persuasivos superiores a los observados con mensajes políticos tradicionales y, además, el principal mecanismo de persuasión no son las estrategias psicológicas, sino la presentación de una gran densidad de información factual y contrastable.
Ahora bien, hay una contrapartida importante: cuando se solicita al chatbot que sea más persuasivo, se corre el riesgo de que la cantidad de información inexacta que ofrezca sea mayor. Resulta curioso, además, que los artículos muestran una asimetría sistemática en la precisión factual de la información generada por los chatbots: cuando tienen que persuadir para votar a candidatos de derechas ofrecen más información inexacta que cuando deben persuadir para votar a candidatos de izquierdas.
La principal implicación es que el escenario que describen ha dejado de ser hipotético para ser posible (y preocupante): emplear chatbots para persuadir a ciudadanos de votar en un sentido concreto mediante un diálogo supuestamente basado en hechos pero que, a la luz de sus resultados, puede sacrificar la factualidad en aras de aumentar la capacidad de persuasión. Aunque, ¡atención!, ninguno de los artículos afirma que la información inexacta sea más persuasiva, solo que al aumentar la capacidad de persuasión tiende a aumentar la cantidad de información inexacta.
[En cuanto a posibles limitaciones] Ambos artículos describen situaciones experimentales con características que pueden llevar a que en contextos y campañas reales no se observasen los mismos resultados. Así, en el trabajo de Lin et al. debemos tener en cuenta que:
- Los participantes se inscribieron de forma voluntaria (sesgo de autoselección).
- No es lo mismo un diálogo controlado (y donde el humano sabe que está participando en un experimento que involucra un chatbot) que una situación de campaña.
- No se midió un comportamiento real como el voto.
- Los efectos en EE.UU fueron inferiores a los observados en los otros países.
- El hecho de que la persuasión por chatbot pueda llevar a que este facilite información inexacta abre la puerta a una serie de riesgos (y dilemas éticos) muy importantes y que requieren mayor atención.
Por lo que respecta a Hackenburg et al., este trabajo también tiene limitaciones:
- Se realizó únicamente en Reino Unido y, en consecuencia, no se puede generalizar directamente a cualquier otro país.
- Los participantes estaban remunerados, lo cual aleja aún más las condiciones experimentales de las condiciones reales.
- La necesidad del consentimiento informado y el briefing previo también aleja las condiciones experimentales de las de una campaña real.
- De nuevo, el problema del desequilibrio entre persuasión y veracidad queda sin resolver de manera satisfactoria.