Los nuevos laboratorios en miniatura se aseguran de que la IA no comete errores

Flujo de trabajo de recopilación de datos. Crédito: Nature Machine Intelligence (2025). Doi: 10.1038/s42256-024-00964-x
Cualquiera que desarrolle una solución de IA a veces sale en un viaje a lo desconocido. Al menos al principio, los investigadores y diseñadores no siempre saben si sus algoritmos y modelos de IA funcionarán como se esperaba o si la IA finalmente cometerá errores.
A veces, las aplicaciones de IA que funcionan bien en teoría funcionan mal en condiciones de la vida real. Sin embargo, para ganar la confianza de los usuarios, una IA debe funcionar de manera confiable y correcta. Esto se aplica tanto a los chatbots populares como a las herramientas de IA en la investigación.
Cualquier nueva herramienta de IA debe probarse a fondo antes de implementarse en el mundo real. Sin embargo, las pruebas en el mundo real pueden ser un esfuerzo costoso o incluso arriesgado. Por esta razón, los investigadores a menudo prueban sus algoritmos en simulaciones de la realidad de la realidad. Sin embargo, dado que las simulaciones son aproximaciones de la realidad, probar las soluciones de IA de esta manera puede llevar a los investigadores a sobreestimar el rendimiento de una IA.
Escribiendo en la inteligencia de la máquina de la naturaleza, el matemático ETH, Juan Gamella, presenta un nuevo enfoque que los investigadores pueden usar para verificar cómo funcionan de manera confiable y correcta sus algoritmos y modelos de IA.
Un modelo de IA se basa en ciertos supuestos y está capacitado para aprender de los datos y realizar tareas dadas de manera inteligente. Un algoritmo comprende las reglas matemáticas que el modelo AI sigue para procesar una tarea.
Crédito: ETH ZURICH
Prueba de IA en lugar de sobreestimar
Gamella ha construido laboratorios en miniatura especiales (“mini labas”) que pueden usarse como camas de prueba para nuevos algoritmos de IA.
“Las mini-Labs proporcionan un entorno de prueba flexible que ofrece datos de medición reales. Son un poco como un patio de recreo para los algoritmos, donde los investigadores pueden probar su IA más allá de los datos simulados en un entorno controlado y seguro”, dice Gamella.
Las mini labas se basan en una física bien entendida, para que los investigadores puedan usar este conocimiento para verificar si sus algoritmos llegan a la solución correcta para una variedad de problemas. Si una IA falla en la prueba, los investigadores pueden hacer mejoras específicas a los supuestos y algoritmos matemáticos subyacentes al principio del proceso de desarrollo.
Las primeras mini-labas de Gamella se basan en dos sistemas físicos que exhiben propiedades esenciales con las que muchas herramientas de IA tienen que lidiar en condiciones del mundo real. La forma en que se usan las mini-labratorios depende del tema que se examine y qué se pretende hacer el algoritmo. Por ejemplo, su primer mini-Lab contiene un sistema dinámico como el viento que constantemente cambia y reacciona a influencias externas.
Se puede usar para probar herramientas de IA para obtener problemas de control. Su segundo mini-lab, que obedece las leyes bien entendidas de la física para la luz, puede usarse para probar una IA que tiene como objetivo aprender automáticamente tales leyes de los datos y, por lo tanto, ayuda a los científicos a hacer nuevos descubrimientos.
Los mini-Labs son dispositivos tangibles, aproximadamente del tamaño de una computadora de escritorio, que puede operarse mediante control remoto. Recordan los experimentos de demostración históricos realizados por los investigadores del siglo XVI en adelante para presentar, discutir y mejorar sus teorías y hallazgos en las sociedades científicas.
Gamella compara el papel de las mini labas en el diseño de algoritmos de IA con el de un túnel de viento en la construcción de aviones: cuando se desarrolla una nueva aeronave, la mayor parte del trabajo de diseño se lleva a cabo inicialmente utilizando simulaciones por computadora porque es más eficiente y rentable.
Una vez que los ingenieros han acordado sus diseños, construyen modelos en miniatura y los prueban en un túnel de viento. Solo entonces construyen un avión de tamaño completo y lo prueban en vuelos reales.
Ejemplos de datos producidos por las cámaras. Crédito: Nature Machine Intelligence (2025). Doi: 10.1038/s42256-024-00964-x
Un paso intermedio entre la simulación y la realidad
“Al igual que el túnel de viento para aviones, las mini laberintas sirven como una verificación de cordura para asegurarse de que todo funcione desde el principio a medida que avanzamos de la simulación a la realidad”, dice Gamella.
Ve los algoritmos de IA de prueba en un entorno controlado como un paso intermedio crucial e intermedio para garantizar que una IA funcione en escenarios complejos del mundo real. Los mini-Labs proporcionan esto para ciertos tipos de IA, particularmente aquellos diseñados para interactuar directamente con el mundo físico.
Las mini-Labs ayudan a los investigadores a estudiar el problema de la transición de la simulación a la realidad al proporcionar un lecho de prueba donde puedan llevar a cabo tantos experimentos como necesiten. Este problema de transición también es relevante en la intersección entre la robótica y la IA, donde los algoritmos de IA a menudo están entrenados para resolver las tareas en un entorno simulado primero, y solo entonces en el mundo real. Esto aumenta la fiabilidad.
El propio Gamella comenzó con una licenciatura en matemáticas antes de obtener una maestría en robótica en ETH. Como estudiante de doctorado, regresó a las matemáticas y la investigación de IA.
Ha mantenido su estilo para la física y la tecnología. “Quiero desarrollar herramientas que ayuden a los científicos a resolver preguntas de investigación”.
La aplicación para sus mini-Labs no se limita a la ingeniería. Junto con un colega del Hospital de la Universidad de Charité en Berlín, intentó diseñar un mini laboratorio para probar algoritmos de IA en biología celular y biología sintética. Sin embargo, los costos eran demasiado altos.
Por el contrario, su segundo mini-lab, un túnel ligero, ya se está utilizando como entorno de prueba en la producción industrial, para un problema óptico. Las mini-Labs también han ayudado a probar varios métodos nuevos para cómo los modelos de idiomas grandes (LLM) pueden hacer predicciones externas precisas en el mundo real.
AI causal: la bala de plata para la IA correcta
Gamella ha adoptado el enfoque de bala de plata para demostrar la idoneidad de sus mini labas, y finalmente demuestra que son útiles incluso para cuestiones de IA causal. La investigación de causalidad y la IA causal son un área clave de estadísticas y ciencias de la informática teórica que es fundamental para los modelos de IA: para que los modelos de IA funcionen de manera confiable y correcta, deben comprender las relaciones causales.
Sin embargo, los modelos de IA a menudo no reflejan las relaciones causales del mundo, sino que hacen predicciones basadas en correlaciones estadísticas. Científicamente hablando, la causalidad es un concepto fundamental que describe las relaciones entre causa y efecto.
La IA causal se refiere a modelos de IA que reconocen las relaciones de causa y efecto. Los resultados de la IA causal son más precisos y transparentes. Es por eso que la IA causal es importante para campos como la medicina, la economía y la investigación climática.
Se necesitan nuevos métodos estadísticos para desarrollar IA causal, ya que las relaciones causales a veces están influenciadas por circunstancias y coincidencias especiales. Además, no se pueden separar fácilmente entre sí en contextos complejos.
Gamella ha trabajado en investigación en asociación con los profesores de matemáticas de ETH Peter Bühlmann y Jonas Peters. Ambos han desarrollado enfoques importantes para identificar relaciones causales en condiciones cambiantes y distinguirlas de influencias de confusión o ruido aleatorio.
“Sin embargo, estos métodos son generalmente difíciles de probar en el mundo real”, dice Gamella. “Para hacerlo, necesitamos datos de los sistemas donde las relaciones de causa-efecto ya se sabe que verifican si nuestros algoritmos pueden aprenderlos con precisión. Estos datos son difíciles de encontrar”.
Para la publicación, los tres investigadores de ETH probaron algoritmos de IA causales en las mini labas construidas por Gamella. Él mismo también se refiere a sus mini laberinales como “cámaras causales”.
Primero, probaron si los algoritmos aprendieron el modelo causal correcto para cada mini-lab, es decir, para el viento y la luz. También observaron qué tan bien se identificaron los algoritmos qué factores se influyen entre sí y cómo funcionan en condiciones inusuales o cuándo ocurren cambios repentinos.
Peter Bühlmann, el supervisor doctoral de Gamella, está lleno de elogios, diciendo: “Las cámaras causales son una valiosa adición a la investigación de causalidad. Los nuevos algoritmos pueden validarse de una manera sin precedentes”.
Gamella se complace en los beneficios inesperados que las cámaras causales proporcionan para la enseñanza. “Dado que las mini labas proporcionan un patio de recreo seguro para los algoritmos, también son un gran patio de recreo para los estudiantes”, dice.
Los profesores de IA, estadísticas y otros campos de ingeniería pueden usarlos para permitir que sus estudiantes apliquen directamente lo que han aprendido en un entorno práctico. Los profesores de todo el mundo ya han expresado su interés, y Gamella ahora está creando estudios piloto en ETH Zurich y la Universidad de Lieja.
Más información: Juan L. Gamella et al, cámaras causales como un lecho de prueba física del mundo real para la metodología de IA, Nature Machine Intelligence (2025). Doi: 10.1038/s42256-024-00964-x
Cita: los nuevos laboratorios en miniatura se aseguran de que AI no comete errores (2025, 28 de marzo) recuperó el 28 de marzo de 2025 de https://techxplore.com/news/2025-03-miniature-laboratories-ai-doesnt.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.