Amazon inyecta $5.000 millones más en Anthropic, que los gastará en AWS

Amazon inyecta $5.000 millones más en Anthropic, que los gastará en AWS

Amazon ha invertido otros 5.000 millones de dólares en Anthropic, elevando su apuesta total en la compañía a 13.000 millones. A cambio, la creadora de Claude se ha comprometido a gastar 100.000 millones de dólares en servicios de computación en la nube de AWS. El acuerdo redefine la relación entre ambas empresas y consolida uno de los vínculos más inusuales del sector tecnológico: el inversor y el proveedor de infraestructura son la misma entidad.

Qué ha pasado exactamente

El anuncio se hizo oficial el lunes 21 de abril de 2026. Amazon ha cerrado una nueva ronda de inversión en Anthropic por valor de 5.000 millones de dólares, sumándose a los 8.000 millones que ya había aportado en rondas anteriores. El resultado es una inversión acumulada de 13.000 millones de dólares, lo que convierte a Amazon en el mayor inversor externo de la compañía fundada por Dario Amodei y su hermana Daniela en 2021 tras salir de OpenAI.

La contrapartida del acuerdo es igual de llamativa que la inversión en sí. Anthropic se ha comprometido a gastar 100.000 millones de dólares en Amazon Web Services. Eso significa que, en la práctica, una parte significativa del capital que Amazon entrega a Anthropic volverá a las arcas de Amazon en forma de facturas de computación en la nube. No es un acuerdo convencional de capital riesgo: es un ciclo financiero donde el inversor y el proveedor son el mismo actor.

Parte de ese gasto irá destinado a los chips propios de Amazon. Anthropic utilizará aceleradores Trainium y Inferentia —el hardware de inteligencia artificial que AWS fabrica bajo su propia marca— para entrenar y ejecutar sus modelos. Según la información disponible, el acuerdo permitirá a Anthropic asegurarse capacidad de computación de hasta cinco gigavatios, una cifra que da idea de la escala de infraestructura que los grandes modelos de lenguaje requieren en este momento.

El compromiso de 100.000 millones de dólares no se ejecutará de golpe ni en un plazo fijo públicamente confirmado, pero la magnitud del número deja claro que la relación entre ambas compañías no es una alianza táctica sino una dependencia estructural de largo plazo. Anthropic necesita la infraestructura para competir; Amazon necesita a Anthropic para justificar su posicionamiento en IA frente a Microsoft y Google.

Por qué esto importa ahora

El sector de la inteligencia artificial lleva dos años protagonizando acuerdos que mezclan inversión con compromiso de gasto en nube, pero este es el más grande conocido hasta la fecha. Microsoft invirtió más de 13.000 millones de dólares en OpenAI a lo largo de varios años, y OpenAI usa Azure como infraestructura principal. Google, por su parte, ha invertido hasta 2.000 millones de dólares en Anthropic —sí, Google también tiene participación en la misma empresa— y ofrece sus TPUs y servicios de Google Cloud a la compañía. El resultado es que Anthropic tiene a dos de los tres grandes proveedores de nube como inversores simultáneos, algo que no tiene equivalente en el sector.

Lo que cambia ahora es la escala del compromiso con Amazon. Con 13.000 millones invertidos y 100.000 millones comprometidos en gasto, AWS pasa de ser un proveedor importante a ser, de facto, la columna vertebral sobre la que Anthropic construirá su futuro. Eso tiene implicaciones competitivas concretas: los clientes empresariales que elijan Claude como modelo de IA para sus aplicaciones tenderán a desplegarlo sobre AWS, lo que retroalimenta el negocio de Amazon en la nube en un momento en que la demanda de computación para IA es el principal motor de crecimiento del sector.

Para el lector europeo, y específicamente el español, este tipo de acuerdos tiene una traducción directa: las empresas que adopten soluciones basadas en Claude —ya sea a través de Amazon Bedrock, que es el servicio de AWS para modelos de IA de terceros, o mediante APIs directas de Anthropic— estarán utilizando infraestructura que corre sobre centros de datos de Amazon. AWS tiene región propia en España desde 2023, lo que implica que parte de esa computación puede procesarse en suelo europeo, con las implicaciones de soberanía de datos que eso conlleva bajo el marco del RGPD.

La lógica circular que lo hace diferente a una inversión normal

Lo más llamativo de este acuerdo no es la cifra de 5.000 millones, sino su estructura. En una inversión convencional, el fondo o empresa que aporta capital espera retorno vía participación accionarial, dividendos o eventual salida a bolsa. Aquí Amazon obtiene todo eso —tiene una participación en Anthropic que se revaloriza a medida que la compañía crece— pero también garantiza que Anthropic gastará 100.000 millones en sus propios servicios.

Es lo que algunos analistas del sector llaman un «acuerdo circular»: el dinero sale de Amazon, entra en Anthropic, y vuelve a Amazon en forma de ingresos por computación en la nube y chips. No es exactamente dinero gratis, porque Amazon asume el riesgo de que Anthropic no tenga éxito, pero sí es un mecanismo que reduce el coste neto real de la inversión de forma considerable. Si Anthropic gasta esos 100.000 millones a lo largo de los próximos años, Amazon recupera una parte sustancial de su desembolso antes incluso de que haya una posible salida a bolsa.

Este modelo tiene precedentes en el sector tecnológico —las grandes plataformas llevan años estructurando acuerdos donde la inversión y el gasto están vinculados— pero en el mundo de la IA se está convirtiendo en la norma. Microsoft hizo algo parecido con OpenAI. Oracle ha cerrado acuerdos similares con startups de IA que usan su infraestructura a cambio de condiciones favorables. La diferencia es que la magnitud aquí es un orden de magnitud mayor que cualquier cosa anterior.

Qué significa para la competencia en el mercado de IA empresarial

Amazon lleva años intentando posicionarse como la plataforma de referencia para empresas que quieren usar modelos de IA sin construirlos desde cero. Amazon Bedrock, su marketplace de modelos, incluye acceso a Claude de Anthropic, pero también a modelos de Meta, Mistral y otros proveedores. La lógica es la misma que la de App Store: Amazon quiere ser el lugar donde las empresas van a buscar IA, independientemente de qué modelo utilicen.

El problema es que Microsoft tiene una ventaja estructural difícil de replicar: la integración de OpenAI en todo el ecosistema de Office 365, Azure y Copilot hace que millones de empresas ya estén usando IA de OpenAI sin haber tomado una decisión activa al respecto. Google, por su parte, tiene Gemini integrado en Google Workspace y está acelerando el despliegue de sus propios modelos en Google Cloud. Amazon no tiene un equivalente de Office o Workspace, lo que significa que su apuesta por Anthropic es su principal argumento para atraer clientes empresariales que quieran IA de alto rendimiento sin pasarse a los ecosistemas de Microsoft o Google.

La decisión de que Anthropic use chips Trainium e Inferentia también tiene lectura estratégica. Nvidia sigue dominando el mercado de GPUs para IA, y su hardware es el que usan la mayoría de laboratorios del mundo. Que Anthropic se comprometa a usar silicio de Amazon a esta escala es una señal de que AWS está apostando por reducir su dependencia de Nvidia, algo que también persiguen Google con sus TPUs y Microsoft con su propio programa de chips. Si los modelos de Anthropic funcionan bien sobre hardware de Amazon, eso valida la alternativa de AWS frente a comprar GPUs de Nvidia en el mercado abierto.

Qué cabe esperar

Los próximos meses marcarán si este acuerdo tiene el efecto esperado en la adopción empresarial de Claude. Anthropic tiene previsto lanzar nuevas versiones de sus modelos a lo largo de 2026, y la capacidad de computación garantizada por este acuerdo debería acelerar tanto el entrenamiento como la inferencia. El mercado vigilará si la apuesta de Amazon por Anthropic se traduce en contratos empresariales concretos que pongan a Claude frente a GPT-4o de OpenAI y Gemini de Google en los entornos corporativos donde se toman estas decisiones. También habrá que prestar atención a si la relación con Google —que también tiene participación en Anthropic— genera tensiones ahora que el vínculo con Amazon se ha estrechado tanto. Y, en un plano más amplio, este acuerdo marca la pauta: en la IA de 2026, el capital y la infraestructura ya no son cosas separadas.