Autor/es reacciones

Allan Tucker

Catedrático de Inteligencia Artificial en el departamento de Ciencias de la Computación de la Universidad Brunel de Londres (Reino Unido)

Parece un trabajo sólido que pone de relieve lo que muchos investigadores en IA temen: el sesgo de automatización. Es solo un estudio y sus limitaciones están explícitamente señaladas en el artículo. 

En cuanto a las limitaciones, los autores solo analizaron un sistema de IA; existen muchos sistemas y tecnologías diferentes que pueden ser mejores para apoyar o explicar decisiones que otros. Los profesionales sanitarios seleccionados eran claramente experimentados y estaban interesados en participar en el estudio; otros profesionales menos familiarizados con la tecnología o con menos experiencia podrían comportarse de forma distinta. También cabe señalar que se llevaron a cabo cambios importantes en el departamento de endoscopia en mitad del estudio y los autores dejan claro que se necesitan ensayos cruzados aleatorizados para poder hacer afirmaciones más sólidas. 

Ha habido otros ejemplos reportados de sesgo de automatización que ponen de relieve algunos de los riesgos en la sanidad en general. 

Esto no es exclusivo de los sistemas de IA y es un riesgo que existe con la introducción de cualquier tecnología nueva, pero el riesgo asociado a los sistemas de IA es potencialmente más extremo. La IA busca imitar la toma de decisiones humana, lo que puede ejercer mucha más presión sobre una persona en términos de su propia toma de decisiones que otras tecnologías. Por ejemplo, podría sentirse presionada a estar de acuerdo con la nueva tecnología. Imaginemos que se comete un error y el experto humano tiene que defender el hecho de haber anulado una decisión de la IA; podría parecerle menos arriesgado simplemente aceptar la decisión de la IA. 

El artículo es especialmente interesante porque indica que la IA sigue detectando más cánceres en general. La cuestión ética entonces es si confiamos en la IA más que en los humanos. A menudo, esperamos que siempre haya un humano supervisando todas las decisiones de la IA, pero si los expertos humanos están poniendo menos esfuerzo en sus propias decisiones como resultado de introducir sistemas de IA, esto podría ser problemático. 

Un lado del argumento sería: “¿qué importa si se identifica más cáncer?”. El otro podría responder: “pero si la IA tiene sesgos y comete errores, podría cometerlos a gran escala si se deja sin supervisión”.

ES