Autor/es reacciones

Francisco Herrera

Catedrático de IA, director del Instituto de Investigación DaSCI (Data Science and Computational Intelligence), Universidad de Granada y miembro de la Real Academia de Ingeniería

En la primera mitad de los años 80 hubo un renacer de la inteligencia artificial (IA), tras el llamado ‘invierto de la AI’ de los años setenta, gracias a los importantes desarrollos en el ámbito de las redes neuronales artificial que lideraron Jonh Hopfiled  y Geoffrey E. Hinton.  

Hopfiled  en 1982 conectó los aspectos biológicos del sistema nervioso y con el ámbito computacional. En su trabajo titulado Neural networks and physical systems with emergent collective computational abilities (PNAS, 1982) destaca: 'Las propiedades computacionales útiles para los organismos biológicos o para la construcción de ordenadores pueden surgir como propiedades colectivas de sistemas que tienen un gran número de componentes simples componentes simples equivalentes (o neuronas). El significado físico de la memoria de contenido direccionable se describe mediante un flujo de espacio de fases adecuado del estado de un sistema’. Con su propuesta define las llamadas ‘redes de Hopfield, que son un tipo de red neuronal artificial recurrente, que se utilizan como sistemas de memoria asociativa con unidades binarias, que convergen en su proceso de aprendizaje, y que tienen aplicaciones en diferentes campos como procesamiento de imágenes, procesamiento de voz, entre otros.  

Geoffrey E. Hinton fue el padre del modelo de entrenamiento y aprendizaje de modelos neuronales de múltiples capas (el modelo de una capa era el llamado perceptrón de los años 70) llamado backpropagation. Es un método de aprendizaje supervisado que ajusta los pesos de las conexiones en una red neuronal para minimizar el error entre la salida real y la salida deseada. El backpropagation ha sido crucial para el desarrollo del aprendizaje profundo, porque permite entrenar redes neuronales profundas de manera eficiente, ajustando los pesos de manera sistemática para minimizar el error, ayuda a las redes neuronales a aprender representaciones internas de los datos, lo que mejora su capacidad para generalizar a nuevos datos, y abrió la puerta a los desarrollos de deep learning, procesamiento de imagen, voz, texto… Es la base de lo que hoy es la eclosión de la IA generativa. 

Estos resultados de la primera mitad de los años 80 pusieron las primeras piedras del desarrollo de los siguientes 40 años que han dado lugar a la eclosión actual de la inteligencia artificial y del aprendizaje profundo, que tiene la base en estos resultados que buscaban emular el funcionamiento del sistema neuronal humano.

ES