Josep Curto
Director académico del Máster en Inteligencia de Negocios y Big Data en la Universitat Oberta de Catalunya (UOC) y profesor adjunto en IE Business School
Tal y como apunta el repositorio de riesgos de IA del MIT, uno de los identificados en la taxonomía basada en dominios es ‘desinformación, vigilancia e influencia a gran escala’. Todo artículo que ayude a confirmar y comprender estos riesgos es bienvenido. Sobre todo, si se realiza de forma transparente (el código y conjunto de datos están disponibles) para su validación académica y para, potencialmente extender a otros LLM. Considerando los problemas de adulación presentados por una de las últimas versiones de chatGPT, que, al ser descubierto por los usuarios, ha forzado OpenAI a realizar un rollback, este estudio es sumamente relevante. La adulación, combinada con la persuasión, incrementa el riesgo comentado.
Cabe comentar que este estudio debería ser extendido a otros LLM como Llama (de META), Claude (de Anthropic), Gwen (Alibaba) u otros para determinar si este fenómeno es habitual y analizar el escenario donde el LLM recaba información sobre el usuario y si en dicho escenario (que es el habitual) la persuasión es tan marcada como en el contexto del estudio.