El 20 de abril de 2026, dos fuentes confirmaron a Axios que la Agencia de Seguridad Nacional de Estados Unidos está utilizando Mythos Preview, el modelo más potente de Anthropic que la compañía decidió no publicar para uso general. Lo llamativo no es solo que la NSA haya adoptado una IA privada para operaciones de inteligencia, sino que lo haya hecho en medio de una disputa activa entre Anthropic y el Departamento de Defensa. Para cualquiera que siga de cerca la relación entre Silicon Valley y el aparato de seguridad estadounidense, esto no es un dato menor.
Qué ha pasado exactamente
La NSA está utilizando Mythos Preview, la versión del modelo más avanzado de Anthropic que la empresa anunció pero retuvo del acceso público. A diferencia de Claude, disponible comercialmente a través de API o la web de Anthropic, Mythos Preview no se puede contratar, no tiene documentación pública y su arquitectura técnica no ha sido detallada en ningún paper. Anthropic lo presentó como una demostración de capacidad, no como un producto. Que la NSA lo esté operando sugiere un acuerdo de acceso privilegiado que va más allá de los canales comerciales habituales.
El elemento que complica este cuadro es la posición del Departamento de Defensa. Fuentes cercanas al proceso señalan que el Pentágono llegó a declarar a Anthropic como un proveedor problemático —las fuentes usan el término «supplier» en disputa—, lo que en la práctica debería dificultar o bloquear su uso en agencias federales bajo supervisión del DoD. La NSA, pese a depender orgánicamente del Departamento de Defensa, parece haber actuado de forma independiente en esta adopción. No hay declaración oficial de ninguna de las partes que confirme o desmienta el acuerdo.
Lo que sí está documentado es que la comunidad financiera ya había expresado preocupaciones sobre riesgos de seguridad asociados a Mythos antes de este episodio. A mediados de abril de 2026, circulaban análisis internos en ese sector que advertían sobre las implicaciones de desplegar un modelo de estas capacidades en entornos sensibles. La NSA, una agencia con historial propio en materia de backdoors y vulnerabilidades deliberadas —el caso Dual EC DRBG en 2006 sigue siendo el ejemplo canónico—, no es exactamente la institución que tranquiliza a quienes se preocupan por la integridad de los sistemas de IA.
El contexto técnico también importa: la NSA opera XKEYSCORE, el sistema que permite a sus analistas acceder a prácticamente cualquier actividad de un usuario en internet, desde correos hasta búsquedas. Incorporar un modelo de lenguaje avanzado a ese tipo de infraestructura amplía cualitativamente lo que se puede hacer con esos datos: no solo recopilar, sino analizar, sintetizar e inferir a escala y velocidad que ningún equipo humano puede igualar.
Por qué esto importa ahora
La adopción de modelos de IA por parte de agencias de inteligencia no es nueva. Lo que ha cambiado en los últimos dieciocho meses es la escala de capacidad de esos modelos. Hay una distancia enorme entre usar un clasificador de texto para filtrar documentos —algo que las agencias llevan años haciendo— y desplegar un modelo de razonamiento avanzado capaz de elaborar hipótesis, cruzar fuentes heterogéneas o redactar informes de inteligencia. Mythos Preview, según todo lo que Anthropic ha insinuado sin revelar abiertamente, cae en esa segunda categoría.
Para el lector europeo, y en particular para cualquiera que recuerde los debates posteriores a las revelaciones de Snowden en 2013, esto activa preguntas que nunca se resolvieron del todo. ¿Qué datos alimentan a Mythos cuando la NSA lo usa? ¿Tiene Anthropic acceso a los logs de uso? ¿Qué cláusulas de auditoría, si las hay, aplican en un contrato de esta naturaleza? Ninguna de esas preguntas tiene respuesta pública por el momento. Y la ausencia de respuestas, en este contexto, no es un detalle menor.
La tendencia que esto refleja es clara: los grandes laboratorios de IA están dejando de ser actores puramente comerciales para convertirse en proveedores estratégicos del Estado. OpenAI lleva tiempo cortejando contratos gubernamentales. Google tiene acuerdos con el Pentágono que generaron protestas internas hace años. Anthropic, que se presentó a sí misma como la empresa de IA más comprometida con la seguridad y la alineación, ahora figura en los informes de inteligencia de la agencia de vigilancia más poderosa del mundo. La distancia entre el discurso fundacional y la realidad operativa se acorta rápidamente.
La tensión entre el Pentágono y Anthropic que nadie ha explicado bien
Que el Departamento de Defensa haya señalado a Anthropic como proveedor problemático mientras una de sus agencias más poderosas usa activamente su tecnología revela una fractura interna en el aparato federal estadounidense que merece atención. El DoD no es un monolito: tiene sus propios programas de IA —el Joint Artificial Intelligence Center, ahora integrado en el Chief Digital and AI Office—, sus propias preferencias de proveedor y sus propias dinámicas presupuestarias. La NSA, aunque opera bajo paraguas del Pentágono, tiene autonomía operativa considerable y sus propios canales de adquisición de tecnología.
Lo que puede estar pasando es una competencia interna por quién controla la agenda de IA dentro del gobierno federal. Si la NSA adopta Mythos Preview de forma independiente y obtiene resultados operativos, eso debilita la posición del DoD en cualquier negociación futura con Anthropic. O, alternativamente, la NSA puede estar actuando como banco de pruebas informal: si Mythos funciona en entornos de inteligencia de alta exigencia, el argumento para reincorporar a Anthropic como proveedor oficial del Pentágono se refuerza solo.
Anthropic, por su parte, se encuentra en una posición incómoda que no puede gestionar públicamente. Confirmar el acuerdo con la NSA compromete su imagen de empresa de IA responsable ante la comunidad investigadora y ante sus usuarios comerciales. Negarlo, si es falso, la expone a un desmentido verificable. El silencio, que es la opción que han elegido, tiene sus propios costes reputacionales. Es el tipo de dilema que aparece cuando una startup con ambiciones filosóficas sobre el futuro de la inteligencia artificial se convierte en proveedora de servicios al Estado.
Lo que un modelo de IA le da a la NSA que antes no tenía
La diferencia práctica entre la NSA anterior a los grandes modelos de lenguaje y la NSA con acceso a Mythos Preview no es solo de velocidad: es de tipo de razonamiento disponible. XKEYSCORE puede capturar volúmenes de datos que ningún equipo humano puede procesar. Pero procesar no es lo mismo que entender. Un modelo de lenguaje avanzado puede leer un intercambio de mensajes y extraer no solo el contenido literal sino el subtexto, las omisiones, los patrones de comunicación que sugieren algo que no se dice directamente.
Esto tiene aplicaciones en contrainteligencia, en análisis de amenazas, en la elaboración de perfiles de actores en conflictos geopolíticos. También tiene implicaciones que van más allá de los objetivos declarados de la agencia. La historia de la NSA incluye episodios documentados de vigilancia masiva de ciudadanos estadounidenses —el programa PRISM, los metadatos telefónicos— que el propio Congreso tuvo que legislar para limitar. Añadir capacidad de razonamiento avanzado a esa infraestructura sin supervisión pública equivalente es una decisión con consecuencias que van mucho más allá de la eficiencia operativa.
Hay un argumento que circula en los círculos de política tecnológica en Washington: que es preferible que las agencias de inteligencia usen modelos de empresas estadounidenses —Anthropic, OpenAI, Google— antes que desarrollar sus propias capacidades en la oscuridad total o depender de modelos cuyo origen sea opaco. El argumento tiene cierta lógica. También tiene el defecto de asumir que el acceso comercial implica algún tipo de supervisión efectiva, lo cual, en el caso de un contrato clasificado con la NSA, es una suposición bastante generosa.
Qué cabe esperar
Los próximos meses van a clarificar si este episodio es un acuerdo puntual o el inicio de una relación estructurada entre Anthropic y la comunidad de inteligencia estadounidense. Si el DoD resuelve su disputa con Anthropic —ya sea por presión política, por demostración de resultados o por un cambio en la dirección estratégica de la empresa—, es probable que veamos contratos formales que salgan a la luz a través de los registros de adquisición federal, que en Estados Unidos son parcialmente públicos incluso cuando el contenido es clasificado. Si la tensión persiste, la NSA puede encontrarse operando con tecnología de un proveedor que el resto del Pentágono tiene bloqueado, lo cual crea fricciones de integración técnica y legal nada triviales. Lo que conviene vigilar en las próximas semanas es si Anthropic hace algún movimiento de comunicación institucional —cambios en su página de políticas gubernamentales, publicaciones sobre safety en entornos de alto riesgo— que insinúe cómo quiere posicionarse ante este escenario. Las empresas de IA hablan mucho de valores. Los contratos clasificados con agencias de vigilancia son el test más duro de qué significan esos valores en la práctica.