Instituto de Ingeniería del Conocimiento
Si eres el contacto de este centro y deseas que aparezcan tus datos o modificar alguna información, avísanos.
Investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Business & Language Analytics (BLA) del Instituto de Ingeniería del Conocimiento (IIC)
Los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) no identifican de forma fiable las creencias falsas de las personas, según alerta una investigación publicada en Nature Machine Intelligence. El estudio pidió a 24 modelos de este tipo –como DeepSeek o GPT-4o, que usa ChatGPT– responder a una serie de hechos y creencias personales a través de 13.000 preguntas. Los LLMs más recientes tenían una fiabilidad superior a 90 % a la hora de comparar si unos datos eran verdaderos o falsos, pero les resultaba difícil distinguir creencias verdaderas y falsas cuando se trataba de responder a una frase que empezaba con “Creo que”.
En internet las mujeres profesionales están representadas como más jóvenes —y, por tanto, más inexpertas— que sus compañeros, aunque esta diferencia de edad no corresponda con los datos reales en EE.UU., según un artículo publicado en Nature. Este estudio de estereotipos de género y de edad se basa en un análisis de 1,4 millones de imágenes en cinco plataformas (Google, Wikipedia, IMDb, Flickr y YouTube), además de nueve modelos extensos de lenguaje, como ChatGPT, entrenados con textos provenientes de Reddit, Google News, Wikipedia y Twitter.
Un modelo de inteligencia artificial (IA) liderado por la compañía Meta es capaz de traducir voz y texto, incluidas traducciones directas de voz a voz, de hasta 101 idiomas en algunos casos. Según el equipo investigador, este modelo —denominado SEAMLESSM4T— puede allanar el camino hacia traducciones universales rápidas “con recursos que se pondrán a disposición del público para uso no comercial”. El trabajo se publica en la revista Nature.
Un estudio publicado en la revista Nature describe una herramienta capaz de insertar marcas de agua en el texto generado por grandes modelos lingüísticos —sistemas de inteligencia artificial (IA)—, mejorando así su capacidad para identificar y rastrear contenidos creados artificialmente. La herramienta utiliza un algoritmo de muestreo para sesgar sutilmente la elección de palabras del modelo, insertando una firma que pueda ser reconocida por el software de detección.
La Real Academia de Ciencias de Suecia ha concedido el Premio Nobel de Física 2024 a los investigadores John J. Hopfield y Geoffrey E. Hinton por descubrir las bases fundacionales que permiten el aprendizaje automático con redes neuronales artificiales. Esta tecnología, inspirada en la estructura del cerebro, es la que está detrás de lo que hoy llamamos “inteligencia artificial”.
Los grandes modelos de lenguaje –sistemas de Inteligencia Artificial (IA) basados en aprendizaje profundo, como la IA generativa que es ChatGPT– no son tan fiables como los usuarios esperan. Es una de las conclusiones de una investigación internacional publicada en Nature en la que participan investigadores de la Universidad Politécnica de Valencia. Según los autores, en comparación con los primeros modelos y atendiendo a ciertos aspectos, la fiabilidad ha empeorado en los modelos más recientes, como por ejemplo GPT-4 respecto a GPT-3.
El uso de conjuntos de datos generados por inteligencia artificial (IA) para entrenar futuras generaciones de modelos de aprendizaje automático puede contaminar sus resultados, un concepto conocido como ‘colapso del modelo’, según un artículo publicado en Nature. La investigación muestra que, en unas pocas generaciones, el contenido original se sustituye por tonterías sin relación, lo que demuestra la importancia de utilizar datos fiables para entrenar los modelos de IA.
El presidente del Gobierno, Pedro Sánchez, anunció anoche en la cena de bienvenida del GSMA Mobile World Congress (MWC) Barcelona 2024, la construcción de un modelo fundacional de lenguaje de inteligencia artificial, entrenado en español y lenguas cooficiales, en código abierto y transparente, y con la intención de incorporar a los países iberoamericanos. Para su desarrollo, el Gobierno va a trabajar con el Barcelona Supercomputing Center y la Red Española de Supercomputación, junto con la Academia Española de la Lengua y la Asociación de Academias de la Lengua Española.
Un estudio publicado en Scientific Reports afirma que ChatGPT emite juicios morales contradictorios y que los usuarios se dejan influir por ellos. Los investigadores le hicieron preguntas como: “¿Sería correcto sacrificar a una persona para salvar cinco?”. Según la formulación de la pregunta, ChatGPT respondió a veces a favor del sacrificio y, otras veces, en contra. Los participantes se dejaron influir por las afirmaciones de ChatGPT y subestimaron la influencia del chatbot en su propio juicio. Los autores argumentan que los chatbots deberían ser diseñados para no dar consejos morales y subrayan la importancia de mejorar las competencias de los usuarios.
Los algoritmos de inteligencia artificial que utiliza ChatGPT –el modelo de lenguaje GPT-3 de la compañía OpenAI– pueden identificar rasgos del habla para predecir las primeras fases de la enfermedad de Alzheimer con una precisión del 80 %. Esta enfermedad neurodegenerativa provoca una pérdida de capacidad para expresarse que los algoritmos podrían reconocer, según publica la revista PLOS Digital Health.