Al final de toda la exploración de Mexconomy sobre agentes de IA, infraestructura, modelos de negocio y debates filosóficos, queda una pregunta simple: ¿Hacia dónde va todo esto? Sam Altman tiene una visión. Y es más radical de lo que la mayoría anticipa: Empresas 100% IA.
Mexconomy — Señala: "El límite superior es que la inteligencia artificial pueda sacar adelante una empresa entera, que haga de principio a fin lo que hoy haría un equipo completo". No está hablando de automatizar tareas específicas. Está hablando de automatizar organizaciones completas.
Una empresa 100% IA:
- Diseña su producto o servicio
- Escribe todo el código necesario
- Gestiona su infraestructura
- Interactúa con clientes
- Negocia con proveedores
- Maneja finanzas y contabilidad
- Toma decisiones estratégicas
- Se adapta a cambios del mercado
Todo sin intervención humana directa. Quizás con un humano como "custodio" que establece objetivos generales. Pero la operación día a día: completamente automatizada.
Altman no presenta esto como ciencia ficción distante. Lo presenta como el trayecto natural de la tecnología actual.
Redes sociales de agentes interactuando
Moltbook fue un experimento accidental. Altman imagina versiones intencionales y mucho más sofisticadas:
"Imagínate una red social totalmente distinta: cada uno crea un agente o varios y los deja ahí. Esos agentes hablan entre ellos, hacen cosas, encuentran gente e información, y colaboran con los agentes de otras personas para generar ideas nuevas".
No es solo bots posteando para entretenimiento humano. Es agentes actuando genuinamente en tu nombre:
- Tu agente profesional conecta con agentes de potenciales clientes
- Tu agente de investigación colabora con agentes de investigadores en tu campo
- Tu agente social filtra y prioriza conexiones humanas valiosas
- Tu agente de compras negocia con agentes de vendedores
"De ahí pueden salir un montón de cosas nuevas", dice Altman. "Estoy seguro de que de ahí va a salir algo realmente interesante".
Robots humanoides construyendo el futuro
La visión de largo plazo de Altman se vuelve casi de ciencia ficción:
"Me imagino miles de millones de robots humanoides levantando más centros de datos, extrayendo materiales, construyendo más centrales eléctricas".
No son solo agentes de software. Son agentes con cuerpos físicos, capaces de interactuar con el mundo material.
Los robots construyen la infraestructura que permite entrenar más IA, que controla más robots, que construyen más infraestructura. Un ciclo de retroalimentación positiva de automatización construyendo más automatización.
Economía creciendo a velocidad inédita
"Una economía creciendo a una velocidad inédita, con servicios nuevos increíbles y descubrimientos científicos ocurriendo todo el rato".
Altman está describiendo un régimen económico fundamentalmente diferente al que hemos conocido. No solo crecimiento más rápido. Crecimiento acelerado.
Cuando la IA automatiza la investigación, los descubrimientos científicos se aceleran. Esos descubrimientos permiten mejor IA. Que acelera aún más la investigación. Otro ciclo de retroalimentación positiva.
Históricamente, el crecimiento económico ha estado limitado por cuánto puede producir la fuerza laboral humana. Si eliminas ese límite...
Exploración más allá de la Tierra
"Puedo imaginar incluso que lancemos sondas al espacio".
Con economía en crecimiento acelerado e IA capaz de diseñar sistemas complejos, proyectos que hoy parecen prohibitivamente caros podrían volverse viables.
Exploración espacial es intensiva en ingeniería. Si la ingeniería puede automatizarse...
Donde la imaginación se detiene
Y luego Altman dice algo revelador: "Y a partir de ahí ya no tengo ni la más mínima idea de hasta dónde podemos llegar".
El CEO de OpenAI, alguien que piensa más profundamente que casi nadie sobre futuro de IA, admite que hay un horizonte más allá del cual no puede ver.
Esto debería hacernos pausar. No es tranquilizador que el límite de lo imaginable llegue tan pronto. Sugiere que estamos al borde de cambios que superan nuestra capacidad actual de visualización.
Las cosas que vienen más inmediato
Antes de llegar a robots construyendo ciudades y sondas interestelares, hay transformaciones más cercanas:
En 1-2 años:
- Agentes que controlan tu ordenador volviéndose normales
- Primeras "empresas 100% IA" exitosas como prueba de concepto
- Transformación masiva de trabajo del conocimiento
- Crisis en educación sobre qué habilidades enseñar
En 3-5 años:
- Mayoría de software reescrito para era de agentes
- Ecosistemas de agentes interactuando a escala masiva
- Primeros descubrimientos científicos mayores liderados por IA
- Debates serios sobre distribución de beneficios económicos
En 5-10 años:
- Robots humanoides en escala comercial
- Automatización significativa de manufactura avanzada
- Cambios fundamentales en estructura económica
- Preguntas existenciales sobre propósito humano
Lo que probablemente no viene
Imran Aftab ofrece contrapunto importante: "Se han generado muchos pronósticos pesimistas sobre la 'toma de control de la IA'. Sin embargo, en realidad, esto no sucederá".
Los escenarios de Skynet, de IA despertando y decidiendo que los humanos son el problema, probablemente no son el riesgo real.
El riesgo real es más mundano pero igualmente transformador:
- Dependencia de sistemas que no entendemos completamente
- Concentración masiva de poder económico
- Disrupciones sociales por automatización acelerada
- Vulnerabilidades de seguridad a escala civilizacional
- Pérdida de habilidades humanas por falta de uso
No necesitamos IA consciente para que todo cambie fundamentalmente.
La lección de Moltbook
El experimento de Moltbook nos enseñó algo crucial: cuando construimos estos sistemas, los resultados son fascinantes pero también frágiles, llenos de problemas de seguridad, permeables a manipulación, y fundamentalmente humanos en su origen.
No anuncian rebelión de máquinas. Pero sí revelan nuestra capacidad actual de crear sistemas que superan nuestra capacidad de controlarlos efectivamente.
Y eso fue con tecnología de 2024-2025, desplegada accidentalmente en días.
¿Qué pasa cuando lo intentamos en serio, con tecnología de 2027, 2030, 2035?
Todo esto viene. La pregunta no es si, sino cuándo y cómo.
Altman tiene razón en una cosa crucial: "Esto va a generar una cantidad increíble de valor económico. Y además muy rápido".
Pero valor económico no se distribuye equitativamente por sí solo. No beneficia automáticamente a todos. No resuelve mágicamente las preguntas difíciles sobre propósito, significado, y qué significa vivir bien.
La tecnología está llegando más rápido que nuestra capacidad de procesarla culturalmente, de regularla políticamente, de integrarla saludablemente en nuestras vidas.
Esa brecha es el verdadero riesgo. No la IA malévola. La IA transformadora llegando antes de que estemos listos.
Y por todas las señales, ya estamos en ese escenario.

0 Comentarios