¿Qué es la inteligencia general artificial y cómo se diferencia de otros tipos de IA?

Crédito: Ilustración de la Universidad de Rochester / Sandra Knispel usando Chatgpt por OpenAI
Resulta que la capacitación de sistemas de inteligencia artificial no es diferente a criar a un niño. Es por eso que algunos investigadores de IA han comenzado a imitar la forma en que los niños adquieren conocimientos naturalmente y aprenden sobre el mundo que los rodea: a través de la exploración, la curiosidad, el aprendizaje gradual y el refuerzo positivo.
“Muchos problemas con los algoritmos de IA hoy podrían abordarse tomando ideas de la neurociencia y el desarrollo infantil”, dice Christopher Kanan, profesor asociado en el Departamento de Ciencias de la Computación de la Universidad de Rochester, y experto en inteligencia artificial, aprendizaje continuo, visión y algoritmos inspirados en el cerebro.
Por supuesto, aprender y poder razonar como un humano, solo más rápido y posiblemente mejor, abre las preguntas sobre la mejor manera de mantener a los humanos a salvo de los sistemas de IA en constante avance. Es por eso que Kanan dice que todos los sistemas de IA deben incorporarse, pero hacerlo al final del desarrollo es demasiado tarde. “No debería ser el último paso, de lo contrario podemos desatar un monstruo”.
¿Qué es la inteligencia general artificial y cómo se diferencia de otros tipos de IA?
La IA implica la creación de sistemas informáticos que pueden realizar tareas que generalmente requieren inteligencia humana, como percepción, razonamiento, toma de decisiones y resolución de problemas. Tradicionalmente, gran parte de la investigación de IA se ha centrado en los sistemas de construcción diseñados para tareas específicas, una inteligencia estrecha artificial (ANI). Los ejemplos incluyen sistemas para el reconocimiento de imágenes, asistentes de voz o jugar juegos estratégicos, todos los cuales pueden realizar sus tareas excepcionalmente bien, a menudo superando a los humanos.
Luego está la inteligencia general artificial (AGI), cuyo objetivo es construir sistemas capaces de comprender, razonamiento y aprender en una amplia gama de tareas, al igual que los humanos. Lograr AGI sigue siendo un objetivo importante en la investigación de IA, pero aún no se ha logrado. Más allá de Agi se encuentra la superinteligencia artificial (ASI), una forma de IA que excede mucho la inteligencia humana en prácticamente todos los dominios, que sigue siendo especulativo y actualmente se limita a la ciencia ficción.
En mi laboratorio, estamos particularmente interesados en acercarnos a la inteligencia general artificial al inspirarnos en la neurociencia y el desarrollo infantil, permitiendo que los sistemas de IA aprendan y se adapten continuamente, al igual que los niños humanos.
¿Cuáles son algunas de las formas en que la IA puede “aprender”?
ANI tiene éxito gracias a Deep Learning, que desde 2014 se ha utilizado para capacitar a estos sistemas para aprender de grandes cantidades de datos anotados por humanos. El aprendizaje profundo implica capacitar a grandes redes neuronales artificiales compuestas de muchas capas interconectadas. Hoy, el aprendizaje profundo respalda la mayoría de las aplicaciones de IA modernas, desde la visión por computadora y el procesamiento del lenguaje natural hasta la robótica y la investigación biomédica. Estos sistemas se destacan en tareas como reconocimiento de imágenes, traducción de idiomas, juegos complejos como Go y Chess, y generar texto, imágenes e incluso código.
Un modelo de lenguaje grande (LLM) como el GPT-4 de OpenAI está entrenado en enormes cantidades de texto utilizando el aprendizaje auto-supervisado. Esto significa que el modelo aprende predecir la siguiente palabra o frase del texto existente, sin orientación o etiquetas humanas explícitas. Estos modelos generalmente están capacitados en billones de palabras, esencialmente la totalidad de la escritura humana disponible en línea, incluidos libros, artículos y sitios web. Para poner esto en perspectiva, si un humano intentara leer todo este texto, tomaría decenas de miles de vidas.
Después de esta extensa capacitación inicial, el modelo se somete a ajuste fino supervisado, donde los humanos proporcionan ejemplos de resultados preferidos, guiando el modelo hacia las respuestas que se alinean estrechamente con las preferencias humanas. Por último, las técnicas como el aprendizaje de refuerzo con retroalimentación humana (RLHF) se aplican para dar forma al comportamiento del modelo definiendo los límites aceptables para lo que puede o no puede generar.
¿En qué son realmente buenos AI?
Son excelentes en tareas que involucran idiomas humanos, que incluyen traducción, redacción de ensayos, edición de texto, proporcionando comentarios y actuar como tutores de escritura personalizados.
Pueden pasar pruebas estandarizadas. Por ejemplo, el GPT-4 de Openai alcanza las puntuaciones de primer nivel en pruebas realmente desafiantes como el examen de la barra (percentil 90), LSAT (percentil 88), GRE cuantitativo (percentil 80), GRE verbal (percentil 99), USMLE y varias pruebas de colocación avanzada. Incluso se destacan en los exámenes de matemáticas a nivel doctoral. Sorprendentemente, los estudios han demostrado que tienen una mayor inteligencia emocional que los humanos.
Más allá de las pruebas, los LLM pueden servir como co-científicos, ayudando a los investigadores a generar hipótesis novedosas, redactar propuestas de investigación y sintetizar literatura científica compleja. Se están incorporando cada vez más en sistemas multimodales diseñados para tareas en idioma de visión, robótica y planificación de acción del mundo real.
¿Cuáles son algunas de las limitaciones actuales de las herramientas generativas de IA?
Los LLM aún pueden “alucinar”, lo que significa que producen información con confianza pero que suena plausible pero incorrecta. Sus capacidades de razonamiento y planificación, aunque mejoran rápidamente, todavía son limitadas en comparación con la flexibilidad y la profundidad a nivel humano. Y no aprenden continuamente de la experiencia; Su conocimiento está efectivamente congelado después del entrenamiento, lo que significa que carecen de conciencia de los desarrollos recientes o los cambios continuos en el mundo.
Los sistemas de IA generativos actuales también carecen de metacognición, lo que significa que generalmente no saben lo que no saben, y rara vez hacen preguntas aclaratorias cuando se enfrentan a incertidumbre o indicaciones ambiguas. Esta ausencia de autoconciencia limita su efectividad en las interacciones del mundo real.
Los humanos se destacan en el aprendizaje continuo, donde las habilidades adquiridas temprano sirven como base para habilidades cada vez más complejas. Por ejemplo, los bebés primero deben dominar el control básico del motor antes de progresar a caminar, correr o incluso a la gimnasia. Las LLM de hoy no demuestran ni se evalúan de manera efectiva en este tipo de aprendizaje acumulativo de transferencia hacia adelante. Abordar esta limitación es un objetivo principal de la investigación de mi laboratorio.
¿Qué desafíos y riesgos principales plantea la IA?
La IA generativa ya está transformando significativamente el lugar de trabajo. Es particularmente perjudicial para los roles de cuello blanco (posiciones que tradicionalmente requieren educación o experiencia especializada, porque los copilotos de IA capacitan a los trabajadores individuales para aumentar sustancialmente su productividad; Pueden transformar a los novatos en operar en un nivel más cercano al de los expertos. Esta mayor productividad significa que las empresas podrían operar de manera efectiva con significativamente menos empleados, lo que aumenta la posibilidad de reducciones a gran escala en roles de cuello blanco en muchas industrias.
Por el contrario, los trabajos que requieren destreza humana, creatividad, liderazgo e interacción física directa, como oficios calificados, posiciones de atención médica que involucran atención directa al paciente o artesanía, es poco probable que sea reemplazado por IA en el corto plazo.
Si bien escenarios como el famoso “maximizador de clips” de Nick Bostrom, en el que se discuten comúnmente inadvertidamente a la humanidad, creo que el mayor riesgo inmediato son humanos que pueden usar deliberadamente IA avanzada con fines catastróficos. Los esfuerzos deben centrarse en la cooperación internacional, el desarrollo responsable y la inversión en la investigación académica de IA.
Para garantizar que la IA se desarrolle y se use de manera segura, necesitamos una regulación en torno a aplicaciones específicas. Curiosamente, las personas que piden regulación gubernamental ahora son las que dirigen las compañías de IA. Pero personalmente, también me preocupa la regulación que podría eliminar los esfuerzos de IA de código abierto, sofocar la innovación y concentrar los beneficios de la IA entre los pocos.
¿Cuáles son las posibilidades de lograr la inteligencia general artificial (AGI)?
Los tres “Padrones” de los ganadores modernos del premio AI y Turing, Yoshua Bengio, Geoffrey Hinton y Yann Lecun, están de acuerdo en que el logro de AGI es posible. Recientemente, Bengio y Hinton han expresado una preocupación significativa, advirtiendo que AGI podría representar un riesgo existencial para la humanidad. Sin embargo, no creo que ninguno de ellos, o yo, crea que las arquitecturas LLM de hoy por sí solas serán suficientes para lograr el verdadero AGI.
Los LLM razonan inherentemente usando el lenguaje, mientras que para los humanos, el lenguaje sirve principalmente como un medio de comunicación en lugar de un medio primario para el pensamiento mismo. Esta dependencia del lenguaje restringe inherentemente la capacidad de los LLM para participar en razonamiento o visualización abstracta, lo que limita su potencial de inteligencia más amplia y humana.
Proporcionado por la Universidad de Rochester
Cita: ¿Qué es la inteligencia general artificial y cómo se diferencia de otros tipos de IA? (2025, 4 de abril) Recuperado el 4 de abril de 2025 de https://techxplore.com/news/2025-04-artificial-general-intelligence-differ-ai.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.