El Gobierno de Estados Unidos dio ultimátum a Anthropic para permitir uso militar de su IA Claude sin supervisión humana. El Departamento de Defensa invocó la Ley de Producción de Defensa, elevando tensión sobre seguridad nacional y ética la tecnológica.
Mexconomy — La disputa entre el Gobierno de Estados Unidos y la empresa de inteligencia artificial Anthropic escaló a un punto de alta tensión institucional. La administración federal exige que la compañía flexibilice las salvaguardas que impiden el uso autónomo de su modelo Claude en aplicaciones militares, particularmente aquellas relacionadas con vigilancia y toma de decisiones sin supervisión humana directa.
El Departamento de Defensa estableció como fecha límite este viernes para que la empresa acceda a los nuevos lineamientos. De no hacerlo, podría ser catalogada como riesgo para la cadena de suministro estratégica, lo que implicaría la cancelación de contratos federales y restricciones para operar en proyectos vinculados a seguridad nacional. Como instrumento de presión, el secretario de Defensa invocó la Ley de Producción de Defensa, normativa que faculta al Ejecutivo a intervenir en sectores privados considerados esenciales.
La controversia se produce en un contexto donde Anthropic, fundada en 2021 tras una escisión de OpenAI, se posicionó como competidor centrado en seguridad ética. Aunque inicialmente se atribuyó a la empresa una valoración de 380 mil millones de dólares, su valuación real ronda los 18 mil millones, cifra relevante pero distante de ese cálculo. El 24 de febrero de 2026, la compañía emitió un comunicado en el que reconoció que el entorno regulatorio y la competencia global presionan su modelo de gobernanza tecnológica.
En el trasfondo subyace un debate mayor: hasta qué punto la seguridad nacional puede imponerse sobre principios de control humano y límites al uso de fuerza letal automatizada. Si la empresa acepta las condiciones federales, se abriría la puerta a la eliminación de restricciones internas sobre vigilancia masiva y aplicaciones militares sin intervención directa de operadores humanos.
El conflicto expone abiertamente la tensión entre competitividad estratégica y estándares éticos en el desarrollo de inteligencia artificial, un terreno donde la regulación aún avanza por detrás de la capacidad tecnológica.

0 Comentarios