Autor/es reacciones

Alfonso Valencia

Profesor ICREA y director de Ciencias de la Vida en el Centro Nacional de Supercomputación de Barcelona​ (BSC)

La propuesta legislativa acordada afecta principalmente a dos tipos de aplicaciones: las de reconocimiento de personas (reconocimiento facial, biometría, etc.), que se prohíben con excepciones, y las denominadas de ‘alto riesgo’, como son los modelos generales (el popular ChatGPT, entre otros). 

Respecto a las aplicaciones de técnicas de reconocimiento biométrico se hacen excepciones para temas policiales que hacen difícil saber dónde acabará el uso de estas tecnologías en la práctica. 

En cuanto a la segunda categoría de grandes modelos generales (modelos fundacionales) que, entrenados con grandes cantidades de texto reproducen características de utilidad práctica cada vez más avanzadas (del ChatGPT a GPT4), el documento propone medidas restrictivas que requieren valoración de riesgos, descripción detallada de su funcionamiento o describir todas las fuentes de datos usadas para su entrenamiento. Medidas que son relativamente fáciles de aplicar a sistemas tradicionales como los que operan en bancos o compañías de seguros, pero muy difíciles o imposibles en los nuevos sistemas de IA. 

La ampliación de estas medidas implicará que los sistemas actuales de las grandes compañías no podrán operar en Europa, salvo a través de IPs de fuera de Europa (un floreciente negocio). En este contexto será muy difícil para Europa, donde operan grupos de investigación, pymes y compañías mucho más pequeñas que las americanas, desarrollar sistemas competitivos. Conscientes del daño que estas medidas pueden producir tanto a las compañías desarrolladoras de sistemas como a las que los usan, el propio texto habla de entornos en los que las compañías puedan desarrollar esos sistemas “seguros” que deja en manos de los gobiernos. Dado que no existe ni la iniciativa, ni el presupuesto, ni la unidad de acción, ni la tecnología para crear esos sistemas, parece que la aplicación de las medidas propuestas dejará definitivamente a Europa fuera del desarrollo de los grandes modelos de IA.  

Un asunto no menor contenido en esta propuesta es la repetición de la necesidad de que los modelos se adhieran a leyes de propiedad intelectual. Entrenar modelos fundacionales requiere la utilización de información masiva equivalente básicamente al contenido de internet. En esta enorme cantidad de datos es imposible detectar de modo automático el nivel de copyright y aún más pagar por la utilización de cada texto. Esta limitación por sí sola es suficiente para acabar con el desarrollo de estos grandes modelos en Europa. La alternativa existe y es razonable, si consideramos que los modelos no son más que sistemas estadísticos que no reproducen los textos específicos, solo generan características estadísticas conjuntas de toda la información. Por tanto, parecería razonable buscar medidas generales que compensen por el uso de la información en vez de aplicar masivamente las leyes de copyright. 

En resumen, Europa se limita mucho en el uso y desarrollo de grandes modelos, sin ofrecer alternativas técnica y económicamente viables. 

ES