Walter Quattrociocchi
Director del Laboratorio de Datos y Complejidad para la Sociedad de la Universidad de Roma La Sapienza (Italia)
Este es un estudio sólido y oportuno. Los autores logran algo que hasta ahora había sido casi inalcanzable: realizan un experimento de campo real con el algoritmo de clasificación de X sin necesidad de permiso de la plataforma. Y el resultado es sorprendentemente limpio. Cuando el feed amplifica contenido político hostil y emocionalmente agresivo, las personas se vuelven más frías hacia el bando contrario; cuando ese contenido se reprime, se animan. Un cambio de dos grados en el ‘termómetro de sentimientos’ puede parecer pequeño, pero en la investigación sobre polarización es significativo: equivale aproximadamente a tres años de cambio natural.
Lo que importa aquí no es la idea genérica de que "los algoritmos nos polarizan". La evidencia es más precisa. Es la amplificación sistemática de una categoría específica de contenido —políticamente hostil, antidemocrático, con carga emocional— lo que impulsa a los usuarios hacia una mayor polarización afectiva. Esto coincide perfectamente con lo que observamos hace años en el Efecto Cámara de Eco en las Redes Sociales, donde los patrones de interacción y la dinámica del contenido refuerzan la distancia emocional más que el propio desacuerdo ideológico. En este sentido, el nuevo estudio ayuda a reconciliar la evidencia contradictoria de experimentos previos a gran escala: las intervenciones que simplemente ajustan la exposición ideológica suelen tener poco efecto, mientras que las intervenciones que se centran en la animosidad tienen un impacto medible.
Naturalmente, es necesario ser cauteloso. El experimento se lleva a cabo en la fase más acalorada de las elecciones estadounidenses de 2024, entre usuarios con feeds ya repletos de material político, y los efectos se miden a corto plazo. Estas condiciones amplifican la sensibilidad emocional, por lo que no se debe generalizar excesivamente la magnitud del impacto. Sin embargo, el mecanismo causal es convincente: al seleccionar qué emociones se amplifican, la capa de clasificación moldea cómo se sienten los ciudadanos respecto al bando contrario.
Y esto plantea una cuestión más amplia. Cuando los entornos en línea se optimizan para la atención en lugar de la comprensión, transforman la familiaridad, la fluidez y la resonancia emocional en un sustituto del conocimiento. Este es precisamente el fenómeno que mis colegas y yo llamamos ‘epistemia’: la transición de la información que se evalúa a la información que simplemente parece verdadera porque el sistema la refuerza. En este sentido, estudios como este son cruciales: demuestran que la arquitectura del feed no solo determina lo que vemos, sino también lo que acabamos creyendo saber.
Comparto aquí nuestro reciente artículo en la revista PNAS, que introduce el concepto de epistemia —cuando los sistemas pasan del filtrado a la generación de información, la plausibilidad lingüística puede prevalecer sobre los procesos de verificación— que sitúa este problema dentro de una transformación más amplia del ecosistema de información en línea.