Tecnología

La automejora recursiva de la IA o cuando la IA mejora a la IA

La automejora recursiva de la IA o cuando la IA mejora a la IA
Avatar
  • Publishedmayo 14, 2026



La automejora recursiva (RSI) de la IA es un concepto implícito en el desarrollo de la inteligencia artificial. En su definición más estricta, los investigadores utilizan el término para describir sistemas que no sólo mejoran los resultados, y su proceso de mejora.: Genera ideas, evalúa resultados y modifica tus propios métodos. Y todo esto sucederá en el futuro sin intervención humana.

La premisa para el establecimiento del campo de la inteligencia artificial es que Las máquinas algún día podrían perfeccionarse. El matemático británico IJ Good escribió en 1966: «Las máquinas superinteligentes pueden diseñar mejores máquinas». llamado en ese momento «Explosión de inteligencia artificial» La inteligencia humana quedará atrás.

RSI parece Cosas que quieres impulsar o que temes Porque algún día la inteligencia artificial superará el control humano, tal como vemos en las películas de ciencia ficción. Parece haber un consenso más amplio de que el RSI, para bien o para mal, es inevitable en el futuro. Los enormes avances en inteligencia artificial en los últimos años plantean la pregunta de si se ha iniciado parte del proceso de superación personal y en qué nivel. IEEE Spectrum publicó un artículo de estado que nos llevó por el camino correcto.

Superación personal de IA recursiva (hacia la superación personal)

Los investigadores llevan algún tiempo implementando elementos de RSI. Los algoritmos de aprendizaje automático (ML) ajustan automáticamente los parámetros de los programas que pueden ejecutar juegos e incluso crear nuevos programas. Los métodos de aprendizaje automático (llamados algoritmos evolutivos) se diversifican e interactúan con las soluciones de diseño, incluidos otros algoritmos. En los últimos diez años, ‘AutoML’ automatiza todos los aspectos del proceso donde se construyen, entrenan y evalúan modelos de aprendizaje automático (por ejemplo, redes neuronales).

Hoy en día, los grandes modelos de lenguaje extendido (LLM) como GPT, Gemini, Claude y Grok continúan esta tendencia. Uno de sus usos principales es escribir código, incluido el código necesario para generar versiones futuras de sí mismo. OpenAI informa que GPT-5.3-Codex jugó un papel importante en su propia creación, ayudando a depurar la capacitación, gestionar la implementación y analizar los resultados de la evaluación. Anthropic afirma que la mayor parte de su código ahora está escrito por Claude Code. estos sistemas todavía depende de la intervención humana Trabajos de orientación y verificación.

El año pasado, Google DeepMind lanzó AlphaEvolve, un sistema que funciona de manera similar Agentes codificadores para descubrimientos científicos y algorítmicos.. Utiliza modelos lógicos descriptivos para guiar la evolución de soluciones como la optimización de la arquitectura de redes neuronales, la planificación de centros de datos y el diseño de chips. Este no es un bucle completamente recursivo, ya que aún es necesario definir qué problema debe resolver AlphaEvolve y cómo se evaluará su desempeño. Sin embargo, cada avance científico aumenta la capacidad de los investigadores para realizar nuevos descubrimientos en el campo de la inteligencia artificial.

El responsable del anterior sistema de diseño de chips de Google, DeepMind, creó una startup llamada Ricursive Intelligence para utilizarlo. Aplicación de la inteligencia artificial al diseño de chips de IA. «Esperamos acortar significativamente el ciclo de diseño de uno o dos años a sólo unos días».. La primera fase es ayudar a los diseñadores humanos. La segunda fase implica la automatización de procesos para empresas sin diseñadores internos. En la tercera fase, la empresa utilizará la automejora recursiva de la IA para diseñar mejores chips y entrenar mejor la IA, aunque todavía bajo supervisión humana.

Otros proyectos se centran en la IA del agente para modificar su propio comportamiento, p. Máquina de Darwin-Gödel (DGM) utiliza algoritmos evolutivos para mejorar los agentes de codificación basados ​​en LLM. Creado por el mismo equipo. científico de inteligencia artificial El objetivo es automatizar el ciclo de investigación en general. El modelo puede generar ideas de investigación, ejecutar experimentos en el software, escribir los resultados en un artículo y luego revisarlos.

Si bien la idea de que los sistemas de inteligencia artificial pueden «hacer ciencia» sin humanos o incluso hacerlo mejor que los humanos ha llamado la atención, este proyecto es otro ejemplo de lo que está por venir. «El uso de la IA para mejorarla es uno de los temas más candentes en Silicon Valley«Jeff Clune es informático de la Universidad de Columbia Británica y ha trabajado como científico de DGM y de IA.

Límites del índice de fuerza relativa

Quedan muchos obstáculos. Clune afirma que la IA es aceptable para generar, implementar y evaluar ideas, pero Todavía no han alcanzado el nivel de los mejores científicos humanos. Incluso si estas capacidades mejoran, el proceso puede no ser lineal. Nathan Lambert, científico informático del Instituto Allen de Inteligencia Artificial, escribió recientemente un artículo en el que sostiene que, en lugar de una superación personal recursiva, deberíamos esperar «Superación personal en pérdidas» El aumento de la fricción ralentiza el proceso.

Hay restricciones más amplias. Dominar el mundo requiere tomar muchas medidas prácticas, desde realizar experimentos de laboratorio hasta navegar en política. Además, el conocimiento está distribuido y, a menudo, es tácito, por lo que no puede integrarse fácilmente en una única IA. Por ejemplo, el fabricante de chips TSMC, la fundición más grande del mundo, obtiene sus capacidades de la inteligencia colectiva de sus 90.000 empleados que interactúan entre sí.

La implementación total de RSI requerirá no sólo el diseño de software y chips, sino también la construcción de centros de datos, la operación de plantas de energía y la extracción de metales, todo ello utilizando robots autorreplicantes. Por estas y otras razones, algunos investigadores insisten en que los humanos seguirán desempeñando un papel importante en este proceso y garantizarán La participación de humanos conducirá a un progreso más rápido y seguro. Y, para nuestra propia supervivencia, guiar la inteligencia artificial hacia soluciones que beneficien a la humanidad.

No descartes el verdadero «Terminator»

Muchos científicos no han descartado la posibilidad de un RSI desbocado, a veces llamado singularidad. Un informe reciente entrevistó a 25 importantes expertos en IA sobre la automatización de la I+D en IA. Todos menos dos creían que podría provocar una explosión de inteligencia. Los participantes también eran más propensos a creer que las empresas de IA mantendrán su modelo de autoaprendizaje internamente en lugar de implementarlas públicamente. Similar al enfoque de Anthropic para controlar los peligros de la inteligencia artificial en los ciberataques en su proyecto Glasswing.

Krueger es el fundador de Evitable, una organización sin fines de lucro dedicada a la seguridad de la inteligencia artificial, y aboga por detener globalmente el desarrollo de la inteligencia artificial. «Es una broma con la vida de todos».prometió. La línea roja recomendada para activar una pausa es cuando el 99% del código está escrito por IA: «Creo que tal vez hemos cruzado esa barrera».

Por el contrario, según Dean Ball, investigador principal de la Fundación para la Innovación Estadounidense, «Pura fantasía infantil de ciencia ficción.» Aún así, cree que los laboratorios de inteligencia artificial de vanguardia que realizan investigaciones de RSI deben ser monitoreados de cerca para evitar que sus modelos caigan en las manos equivocadas, como actores maliciosos que podrían usarlos para acelerar ataques cibernéticos o el desarrollo de armas biológicas. Él señaló, Existen riesgos con el RSI, pero estos riesgos se pueden gestionar.

¿Estamos avanzando hacia una sociedad de inteligencia artificial?

Cuando la gente imagina inteligencia artificial de respuesta rápida (RAI), probablemente imagina una IA con un cerebro más grande. Pero probablemente se parezca más a una evolución, con muchos agentes diferentes surgiendo y actuando juntos. «Como un Explosión cámbrica de formas de vida artificiales.«. Estos tendrán ecosistemas, culturas y economías.

Los algoritmos evolutivos y los procesos abiertos para la exploración sin objetivos claros serán clave para la superación personal recursiva de la IA. La cooperación entre agentes también es crucial. Sistemas como AI Scientist recopilan sus hallazgos en artículos formales, brindando a los agentes una manera de compartir resultados y aprovechar el trabajo de los demás.

Todos estos avances apuntan a la posibilidad de que los científicos humanos se retiren gradualmente de la investigación en IA. En primer lugar, dedicarán menos tiempo a tareas de nivel inferior y actuarán más como profesores o líderes de equipo que definen la dirección de la investigación, explica Kruhn. Luego se convierten en directores de programa o directores ejecutivos, estableciendo la agenda de investigación más amplia. Con el tiempo, desempeñarían una función de supervisión, un papel que esperaba que los humanos nunca abandonaran. Quizás para nuestra propia supervivencia…

* Imagen de portada generada por IA





Puedes consultar la fuente de este artículo aquí

Compartir esta noticia en: