Investigadores de BCAM, ARAYA INC., a Universidad De Sussex y la Universidad De Kyoto desarrollan una nueva clase de modelos de Inteligencia Artificial llamados REDES NEURONALES CURVADAS
- ¿Qué pasaría si la Inteligencia Artificial pudiera recordar las cosas no solo bien, sino más rápido o de manera más confiable? Un nuevo estudio internacional ha introducido un tipo novedoso de memoria de IA, uno que aborda el desafío no con más datos, sino con geometría
- El estudio muestra que doblar el "espacio" en el que la IA "piensa" puede crear una recuperación explosiva de la memoria, un efecto similar a un momento de claridad en el cerebro humano
- La investigación abre nuevos caminos para la computación inspirada en el cerebro, la neurociencia e incluso la robótica de próxima generación, ofreciendo herramientas para entender mejor la memoria en sí misma. El descubrimiento sin duda contribuirá al futuro de la IA
¿Qué pasaría si la inteligencia artificial pudiera recordar las cosas más rápido o de manera más confiable? Un nuevo estudio internacional ha introducido un tipo novedoso de memoria de IA,que aborda el desafío no con más datos, sino con geometría.
Un equipo de investigadores de BCAM - Centro Vasco de Matemática Aplicada (BCAM), Araya Inc., la Universidad de Sussex y la Universidad de Kyoto ha desarrollado una nueva clase de modelos de IA llamados Redes Neuronales Curvadas.
Su hallazgo, publicado en Nature Communications, muestra cómo el deformar el "espacio" en el que la IA "piensa" puede crear un acceso a la memoria de forma explosiva, un efecto similar a un momento de inspiración en el cerebro humano.
Los sistemas tradicionales de IA se basan en conexiones relativamente simples, similares a conversaciones uno a uno, "pero el cerebro humano opera con interacciones ricas y multifacéticas, donde muchos señales se influyen mutuamente al mismo tiempo", declara el Dr. Miguel Aguilera (Investigador Ikerbasque y Junior Leader de la Caixa en BCAM).
Para dar cuenta de esto, el equipo introdujo la geometría curva en los modelos de IA, permitiendo procesos de memoria más complejos y realistas, sin sobrecarga computacional adicional.
Las Redes Neuronales Curvadas del equipo revelaron tres características clave:
- Recuperación Explosiva de la Memoria: El sistema puede saltar fácilmente a una memoria almacenada, como si se encendiera un interruptor.
- Inteligencia mediante auto-ajuste: La IA ajusta automáticamente su "enfoque" al recordar, acelerando su respuesta.
- Menos errores, o más capacidad: Un solo parámetro de ajuste permite al sistema equilibrar entre la potencia de la memoria y la precisión.
"Estas propiedades no están codificadas de manera rígida, sino que surgen naturalmente de la geometría curva del modelo", señala el Dr. Pablo A. Morales en Araya Inc.
Este descubrimiento podría llevar a sistemas de IA más adaptativos, eficientes y fáciles de entender, un gran avance desde los modelos "caja negra" de hoy en día que son poderosos pero difíciles de explicar. "Es un ejemplo convincente de cómo la geometría y la física pueden guiar avances en la inteligencia, tanto natural como artificial", declara el Dr. Fernando E. Rosas de la Universidad de Sussex. "Este trabajo abre nuevas formas de pensar sobre cómo los cerebros y las máquinas pueden almacenar y recuperar información de manera eficiente".
El Prof. Hideaki Shimazaki, Profesor Asociado en la Universidad de Kyoto, añade que "lo que comenzó como una idea simple: usar geometría curva en redes neuronales, se desarrolló en un viaje profundamente colaborativo. El descubrimiento sin duda contribuirá al futuro de la IA".
La investigación abre nuevos caminos para la computación inspirada en el cerebro, la neurociencia e incluso la robótica de próxima generación, ofreciendo herramientas para entender mejor la memoria en sí misma, ya sea en mentes o máquinas.
Enlace al artículo // DOI: s41467-025-61475-w
Related news
La gente del BCAM