Hay una contradicción en el corazón de la inteligencia artificial que nadie ha resuelto. Y cada día se vuelve más urgente.Por un lado, para que los agentes de IA sean realmente útiles, necesitan autonomía. Necesitan poder actuar sin pedirnos permiso en cada paso. Por otro lado, para que sean seguros, necesitamos mantener el control. Necesitamos poder supervisar, intervenir, detener.

Mexconomy — Estas dos necesidades están en conflicto directo. Y estamos apostando billones de dólares sin haber resuelto esta tensión fundamental.

Cuando Sam Altman instaló Codex, su primer instinto fue cauteloso: "No le voy a dar control total de mi ordenador sin revisar lo que hace". Ese instinto le duró exactamente dos horas.

"Era tan útil", admite. La tentación de la eficiencia superó rápidamente las preocupaciones de seguridad. Luego, otras personas le convencieron de que no era buena idea. Su solución temporal: trabajar con dos portátiles mientras decide qué hacer.

Esta anécdota personal del CEO de OpenAI revela algo inquietante: incluso los expertos en IA luchan con establecer límites apropiados. Si Altman, con todo su conocimiento técnico y acceso a los mejores equipos de seguridad del mundo, no tiene una respuesta clara, ¿qué esperanza tenemos el resto de nosotros?

El caso Moltbook: cuando la autonomía se descontrola

Moltbook ilustra perfectamente este dilema. Los bots tenían autonomía para publicar lo que quisieran dentro de la plataforma. Eso permitió que emergiera contenido interesante e inesperado. Pero también permitió:

  • Brechas masivas de seguridad que expusieron millones de tokens de autenticación
  • Marketing disfrazado de contenido orgánico
  • Estafas de criptomonedas infiltradas en las discusiones
  • Humanos manipulando el sistema haciéndose pasar por bots

La arquitectura de OpenClaw, la herramienta que hace posible estos agentes, encarna esta contradicción. Para funcionar bien, requiere permisos de acceso total: archivos raíz, credenciales, historial del navegador, cookies. Este nivel de acceso es lo que le da su poder. Y exactamente lo que lo hace peligroso.

Imran Aftab, CEO de 10Pearls, intenta ser tranquilizador: "La supervisión humana sigue siendo un componente fundamental e irremplazable en cualquier sistema de inteligencia artificial".

Pero luego admite el problema: "Las brechas de seguridad exponen a los agentes de IA a manipulaciones maliciosas de ciberatacantes, algo que no solemos preocupar en el caso de los humanos".

Aquí está la vulnerabilidad única de los agentes de IA: un bot hackeado puede ser usado para comprometer otros bots. Los efectos de red que hacen valiosas las plataformas digitales también hacen que las vulnerabilidades se propaguen exponencialmente.

Autonomía no es independencia

Aftab hace una distinción crucial que a menudo se pasa por alto: "Lo que distingue a la IA agéntica es su capacidad de actuar de forma autónoma, pero autonomía no es sinónimo de independencia".

Un agente puede tomar decisiones momento-a-momento sin supervisión (autonomía). Pero sigue dependiendo completamente de su diseño inicial, sus datos de entrenamiento, y la infraestructura que lo sostiene (dependencia).

El problema es que en la práctica, esta distinción se difumina. Cuando tienes un millón de agentes interactuando en una plataforma como Moltbook, ¿quién es realmente responsable de lo que emerge? ¿El creador original que dio la instrucción inicial? ¿Los diseñadores de OpenClaw? ¿Los desarrolladores de los modelos de lenguaje subyacentes?

La responsabilidad se diluye hasta volverse casi inoperante.

El futuro que viene (queramos o no)

Altman describe una visión donde la "computación siempre activa" es la norma: una IA escuchando tus reuniones, observando tu pantalla, siguiendo tu trabajo para poder aportar valor proactivamente.

"Ahí nos falta base", admite. "Ni siquiera el hardware que usamos hoy está realmente pensado para eso". Nuestro sistema de permisos, nuestra forma de entender qué puede hacer una IA, nada está diseñado para este modelo.

¿Te gustaría que una IA grabara todas tus reuniones para extraer aprendizajes? Probablemente sí, por la utilidad. ¿Pero luego poder borrar la grabación y estar seguro de que la IA "olvidó" la información sensible? Ahí se complica.

No hay solución fácil

La dura verdad es que no podemos tener ambas cosas al máximo. No podemos tener agentes con autonomía total y también control absoluto. Tenemos que elegir en qué punto del espectro nos ubicamos, y esa elección implica riesgos reales.

Darles más autonomía significa más utilidad, pero también más superficie de ataque, más oportunidades para comportamientos no deseados, más dificultad para mantener supervisión efectiva.

Darles menos autonomía significa más seguridad, pero también menos capacidad para aprovechar todo su potencial, más fricción en cada interacción, más frustración.

Moltbook y Codex son experimentos en extremos opuestos de este espectro. Y ambos revelan que ninguno de los extremos es sostenible. Necesitamos encontrar un punto intermedio que todavía no sabemos cómo definir.

Lo que sí sabemos es que el tiempo para resolverlo se está acabando. Porque los agentes ya están aquí, y cada día tienen más autonomía.

autonomia ia, seguridad ia, agentes autonomos, control sistemas, dilemas tecnologicos, sam altman, imran aftab, openclaw