Carlos Carrasco Farré
Profesor en la Toulouse Business School (Francia), miembro del equipo editorial de PLoS ONE (Ciencias Sociales) y doctor en Management Sciences (ESADE Business School)
Todos, en mayor o menor medida, hemos experimentado con ChatGPT u otros Large Language Models. Es por ello por lo que quizás no nos sorprenda saber que escriben muy bien, pero quizás sí que nos sorprenda saber que también sabe adaptar sus argumentos a quien tiene delante para convencerle. Y no solo es sorprendente su capacidad de convicción, aún más inquietante es su capacidad de hacerlo mejor que una persona real. Este hallazgo es especialmente relevante en un mundo donde los asistentes de IA se integran en plataformas de mensajería, redes sociales o atención al cliente. Esta investigación de Salvi et al. confirma con datos sólidos una preocupación creciente: que estas tecnologías puedan usarse para manipular, desinformar o polarizar a gran escala.
Aunque el estudio se realizó con participantes estadounidenses, los mecanismos de personalización y persuasión que se ponen a prueba son extrapolables a contextos como el español, donde también existe una fuerte presencia digital, una creciente exposición a contenido generado por IA, y una polarización social y política en aumento. Esto puede ser problemático ya que, como se comenta en el artículo —a diferencia de los humanos, que necesitan tiempo y esfuerzo para adaptar sus argumentos a distintos públicos— GPT-4 puede adaptar su mensaje de forma instantánea y a gran escala, lo que le otorga una ventaja desproporcionada en entornos como campañas políticas, marketing personalizado o conversaciones en redes sociales. Esta capacidad de microtargeting automatizado abre nuevas posibilidades para influir en la opinión pública, pero también agrava el riesgo de manipulación encubierta. Por eso, los autores del estudio recomiendan que plataformas y reguladores tomen medidas para identificar, supervisar y, si es necesario, limitar el uso de modelos de lenguaje en contextos persuasivos sensibles. Así como en su día se reguló la publicidad dirigida, quizás haya llegado el momento de pensar en acciones para controlar la persuasión algorítmica.