Autor/es reacciones

Lucía Ortiz de Zárate

Investigadora predoctoral en Ética y Gobernanza de la Inteligencia Artificial en el departamento de Ciencia Política y Relaciones Internacionales de la Universidad Autónoma de Madrid

El haber llegado a un acuerdo sobre la regulación de la Inteligencia Artificial (IA) es una buena noticia para todas y todos los europeos y europeas y, esperemos, que sea una llamada de atención al resto de países y potencias para que cunda el ejemplo y regulen estas tecnologías emergentes. La IA es un grupo de tecnologías de naturaleza transversal que puede aplicarse a ámbitos de muy diversa índole, desde el ocio hasta el control de fronteras, pasando por los procesos de selección de personal en empresas o estudiantes en la universidad. Es decir, cuando hablamos de IA tenemos que pensar desde chatbots que nos asisten cuando necesitamos información hasta sistemas de reconocimiento facial usados para identificar personas.  

La regulación europea lo que pretende es crear un espacio en el que la adopción de estas tecnologías sea compatible con los valores y derechos fundamentales, ya que la IA puede generar grandes problemas relacionados con la privacidad de los datos, la transparencia, la rendición de cuentas o incluso puede generar situaciones discriminatorias. Tenemos ejemplos de otros países del mundo como, por ejemplo, China donde se recopilan datos de forma masiva para premiar o sancionar ciudadanos en función de su buen o mal comportamiento. La UE pretende evitar estos usos de la IA a través de una regulación basada en el riesgo que plantea requisitos muy estrictos para el uso de IA aplicada a ámbitos de alto riesgo como, por ejemplo, el control de fronteras, los procesos de selección de personal, etc.   

Algunos riesgos los considera inaceptables, por ser contrarios a los valores y derechos fundamentales, y por ello estarán prohibidos en la UE. Así es el caso de los sistemas de puntuación social como el del caso chino, el uso de IA para modificar el comportamiento de las personas o explotar las vulnerabilidades de las personas (situación económica, edad, etc.). El uso de sistemas de sistemas de reconocimiento facial en tiempo real, que es muy polémico, parece que estará prohibido con algunas excepciones (terrorismo, secuestro, tráfico de personas, etc.).  

Si la ley es efectiva lo veremos con el paso del tiempo. En principio, la regulación debería ser lo suficientemente flexible para adaptarse a los nuevos avances tecnológicos que cada vez se dan más rápido y, al mismo tiempo, lo suficientemente concreta para poder evitar situaciones que pueden ser muy graves y sancionar cuando sea necesario. En cualquier caso, es una buena noticia que la UE haya apostado por regular la IA y poner algunos límites a unas tecnologías que, sin control, podrían ser terriblemente dañinas, incluso sin nosotros ser conscientes de ello. 

ES