Organizan la primera conferencia científica con sistemas de IA como autores y revisores
Un grupo de investigación de la Universidad Stanford (Estados Unidos) ha organizado la primera conferencia académica en la que herramientas de inteligencia artificial (IA) sirven tanto de autores como de revisores de artículos científicos. Llamada Agents4Science 2025, la conferencia tendrá lugar el 22 de octubre.
251020 agents4science raffaele ES
Raffaele Ciriello
Profesor titular de Sistemas de Información Empresarial en la Universidad de Sídney (Australia)
La idea de una conferencia de investigación en la que tanto los autores como los revisores son sistemas de inteligencia artificial es, en el mejor de los casos, una curiosidad divertida y, en el peor, una parodia poco graciosa de lo que se supone que es la ciencia. Si los autores y los revisores son IA, entonces quizás los asistentes a la conferencia también deberían ser IA, porque ningún humano debería confundir esto con investigación académica.
La ciencia no es una fábrica que convierte datos en conclusiones. Es una empresa humana colectiva basada en la interpretación, el juicio y la crítica. Tratar la investigación como un proceso mecánico en el que las hipótesis, los experimentos y los artículos pueden ser generados y evaluados de forma autónoma por máquinas reduce la ciencia a un empirismo que haya tomado esteroides. Presume que el proceso de investigación es irrelevante siempre que los resultados parezcan estadísticamente válidos. Pero la investigación académica genuina tiene menos que ver con los valores-p que con la conversación, la controversia y el conocimiento encarnado.
Equiparar a los agentes de IA con los científicos humanos es un profundo error de categorización. Los grandes modelos lingüísticos no piensan, descubren, ni saben en ningún sentido significativo. Producen secuencias plausibles de palabras basadas en patrones de datos pasados. Concederles la condición de autores o revisores antropomorfiza lo que son esencialmente máquinas estocásticas de predicción de texto. Confunde la ilusión de la razón con la razón misma.
Por supuesto, existe un debate legítimo sobre cómo las herramientas de IA pueden ayudar a los científicos a analizar datos, visualizar resultados o mejorar la reproducibilidad. Pero una conferencia basada íntegramente en investigaciones generadas por IA y revisadas por revisores de IA representa un peligroso tipo de autoparodia tecnocrática. Refleja una ideología de tecnoutilitarismo, en la que se celebra la eficiencia y la automatización incluso cuando eliminan los elementos humanos que dan legitimidad a la ciencia.
Por lo tanto, para mí, Agents4Science es menos un vistazo al futuro que una sátira del presente. Un ejemplo paradigmático de la ley de Poe, en la que la parodia y el extremismo se vuelven indistinguibles. Nos recuerda que, si bien la IA puede ampliar nuestras capacidades, no puede sustituir el trabajo intelectual a través del cual el conocimiento cobra sentido. Sin los seres humanos, no hay ciencia, solo computación que consume mucha energía.
251020 agents4science david ES
David Powers
Investigador en Informática y Ciencias Cognitivas que supervisa proyectos en inteligencia artificial, robótica y tecnología de asistencia
Agents4Science 2025 es un experimento interesante. Toda la conferencia se limita a artículos escritos usando IA y revisados por IA.
Muchos autores utilizan ahora habitualmente la IA para escribir o reescribir sus artículos, incluyendo la búsqueda de referencias omitidas. Por otro lado, las conferencias y las editoriales están explorando ahora cómo se puede utilizar la IA para revisar artículos y establecer qué trabajos son auténticos y cuáles son alucinaciones de la IA. Yo mismo he descubierto que la IA ha inventado varios artículos que mis colegas y yo podríamos haber escrito (y, posiblemente, deberíamos haber escrito). En un caso, se trataba de una solicitud de financiación y resultó que el solicitante había pedido a la IA más artículos relevantes de nuestro grupo.
Los investigadores de IA siguen tratando de controlar esto y la Asociación para el Avance de la Inteligencia Artificial (AAAI) introdujo este año la revisión por IA como complemento a la revisión humana (los autores ven tanto las revisiones anónimas humanas como las de IA, así como un resumen generado por IA). La [conferencia] AAAI-26 experimentó otro aumento masivo de propuestas sometidas, y este sistema de revisión se puso a prueba en la práctica. Sin embargo, reconocer los artículos escritos por IA, distinguir la ‘investigación’ inventada por la IA del trabajo real, y garantizar la calidad continua de los medios de publicación siguen siendo retos abrumadores.
Agents4Science 2025 ofrecerá la oportunidad de ver artículos escritos y revisados abiertamente por IA, y analizar estos datos para informar a la comunidad sobre los esfuerzos para garantizar la integridad de la investigación y optimizar el procesamiento en nuestra nueva era impulsada por la IA. Esto no significa solo identificar los artículos generados por IA, sino también explorar el alcance de la colaboración activa entre humanos e IA para resolver importantes problemas de investigación, y desplegar sistemas de ayuda, asesores y chatbots de IA. Estoy deseando ver los datos.
La tasa de aceptación de alrededor del 16 % (24 de más de 300 papers sometidos) es comparable a la de muchas revistas e inferior a la de la mayoría de las conferencias. Parece que será un conjunto de datos interesante y útil para el análisis, que nos ayudará a comprender el uso de la IA en el mundo de la investigación.
Hussein Abbas - conferencia IA Stanford
Hussein Abbass
Investigador de la facultad de Ingeniería y Tecnología de la Información de la UNSW-Canberra (Australia)
Mis 35 años de experiencia como investigador en IA me han enseñado que la IA no reúne los requisitos para la autoría académica.
Los artículos académicos son un tipo de publicación único debido a las expectativas de innovación y descubrimiento. La autoría es una sección sagrada en las publicaciones académicas. Debemos detenernos y preguntarnos: ¿qué ha cambiado para exigir la autoría de una IA?
La autoría académica tiene cuatro pilares: contribución, integridad, responsabilidad y consentimiento; la IA no puede rendir cuentas y no tiene la voluntad ni la capacidad de dar su consentimiento; los sistemas actuales de IA no pueden garantizar la integridad sin la supervisión humana; en pocas palabras, la autoría de los artículos académicos es una responsabilidad humana y no es apropiada para una IA.
La IA ha estado realizando descubrimientos científicos desde sus inicios. Gracias a los grandes modelos lingüísticos, se han logrado avances significativos que permiten a la IA automatizar parcial o totalmente el método científico en contextos definidos, lo que abre la posibilidad de que la IA genere automáticamente artículos académicos.
¡La autoría es un juego diferente! Como defensor de la IA y como psicólogo especializado en IA que diseña y diagnostica la cognición y el comportamiento de la IA, hay una línea sagrada que no cruzo: la línea que distingue a los humanos de las máquinas; la autoría académica solo tiene sentido para los humanos, no para la IA.
Ali Knott - conferencia IA Stanford
Ali Knott
Profesor de Inteligencia Artificial en la Universidad Victoria de Wellington (Nueva Zelanda)
Creo que lo importante es que esta conferencia se reconozca como un experimento. Su objetivo (tal y como yo lo entiendo) es evaluar la posibilidad de que existan autores y revisores de IA, más que defender el uso de sistemas de IA en estas funciones. Es demasiado pronto para ese tipo de defensa; estoy seguro de que la mayoría de los investigadores estarán de acuerdo. Pero está bien hacer evaluaciones y experimentos. Es inherente a la naturaleza de la ciencia realizar experimentos y evaluaciones. Mi principal preocupación es que la conferencia se entienda (por parte de los periodistas o del público) como una conferencia de investigación sustantiva, en lugar de como un experimento. Eso sería un error.
Me gustaría señalar las directrices de la Royal Society Te Apārangi [de Nueva Zelanda] sobre el uso de la IA generativa en la investigación, en cuya elaboración participé. Estas directrices son bastante generales, pero incluyen un principio básico que descarta el uso de IA autónomas como autores o revisores. Se trata del principio 3.2.2: [el personal investigador humano] debe ‘ser responsable de los resultados de la investigación’. Concretamente, ‘los sistemas GenAI no son autores ni coautores. La autoría implica agencia y responsabilidad, y por lo tanto recae en los investigadores humanos’.
Este principio no excluye la celebración de una conferencia de este tipo, siempre que se entienda que tiene un propósito experimental. Si se entiende que la conferencia presenta y revisa investigaciones sustantivas reales, contravendría las directrices que hemos establecido.