Amazon duplica su apuesta por Anthropic con hasta 25.000 millones

Amazon duplica su apuesta por Anthropic con hasta 25.000 millones

Amazon invertirá hasta 25.000 millones de dólares en Anthropic, la empresa detrás del modelo de inteligencia artificial Claude, en el mayor movimiento financiero que ha realizado el gigante tecnológico en el sector de la IA. El acuerdo combina una inversión directa con un compromiso masivo de infraestructura cloud que redefine la relación entre ambas compañías. Para cualquiera que use herramientas de IA en su trabajo diario, este tipo de movimientos decide qué modelos tendrán los recursos para competir con GPT-4o o Gemini en los próximos años.

Qué ha pasado exactamente

Amazon inyectará 5.000 millones de dólares de forma inmediata en Anthropic, con la posibilidad de sumar otros 20.000 millones adicionales si la compañía alcanza determinados hitos de rendimiento y negocio. Esta inversión se suma a los 8.000 millones que Amazon ya había colocado en Anthropic en dos rondas anteriores: una de 4.000 millones en 2023 y otra de igual cuantía en 2024. En total, el compromiso financiero acumulado de Amazon con Anthropic podría alcanzar los 33.000 millones de dólares si se cumplen todas las condiciones.

El acuerdo no se limita al capital. La parte más reveladora es el compromiso de Anthropic de gastar más de 100.000 millones de dólares en servicios de Amazon Web Services (AWS) durante la próxima década. Esto convierte lo que podría parecer una simple apuesta financiera en una alianza estratégica de infraestructura: Anthropic construirá y entrenará sus modelos sobre los chips y los centros de datos de Amazon, no sobre los de Microsoft Azure ni Google Cloud, que son sus rivales directos.

Dentro de ese acuerdo de infraestructura, Anthropic tendrá acceso prioritario a los chips de IA diseñados por Amazon, concretamente los Trainium, que la compañía ha desarrollado como alternativa a las GPU de NVIDIA. Entrenar modelos de la escala de Claude requiere miles de millones de operaciones por segundo durante semanas o meses, y tener acceso garantizado a esa capacidad de cómputo es, en la práctica, tan valioso como el propio dinero de la inversión.

La noticia llega en un momento en que Anthropic ha posicionado a Claude como una alternativa seria a ChatGPT de OpenAI, con modelos como Claude 3.5 Sonnet y Claude 3 Opus que compiten directamente en benchmarks de razonamiento, código y análisis de documentos. La empresa, fundada en 2021 por Dario Amodei y Daniela Amodei —exdirectivos de OpenAI—, ha construido su identidad en torno a la seguridad en IA, un enfoque que ha atraído tanto a inversores institucionales como a empresas reguladas que necesitan garantías sobre el comportamiento de los modelos.

Por qué esto importa ahora

El mercado de la IA de gran escala se está consolidando en torno a tres ejes: Microsoft-OpenAI, Google-DeepMind y ahora Amazon-Anthropic de forma más sólida que nunca. Hasta hace poco, la relación entre Amazon y Anthropic parecía más oportunista que estructural: dinero a cambio de acceso, sin la integración profunda que tiene OpenAI con Azure. Este nuevo acuerdo cambia eso. Al atar el crecimiento computacional de Anthropic al ecosistema de AWS, Amazon convierte a Claude en su modelo de IA de referencia de la misma forma en que Google ha hecho con Gemini o Microsoft con Copilot.

Para entender la magnitud del giro, basta con mirar hacia atrás. En 2022, antes de que ChatGPT cambiara las expectativas del mercado, Amazon no tenía un modelo de lenguaje propio relevante. AWS era el proveedor de infraestructura dominante, pero en la capa de inteligencia artificial aplicada dependía de lo que los clientes quisieran montar encima. Invertir en Anthropic fue la respuesta táctica a ese vacío. Ahora, con este acuerdo, la relación se vuelve estructural: Anthropic necesita a Amazon para escalar, y Amazon necesita a Anthropic para no quedar fuera de la carrera de los modelos fundacionales.

Para el usuario español o latinoamericano, el impacto más inmediato llegará a través de Amazon Bedrock, el servicio que permite acceder a Claude —y a otros modelos— directamente desde la infraestructura de AWS sin necesidad de gestionar servidores. Las empresas que ya trabajan con AWS para almacenamiento, bases de datos o comercio electrónico tendrán cada vez más incentivos para integrar Claude en sus flujos de trabajo sin salir del ecosistema de Amazon. En términos prácticos, eso significa que desarrolladores y equipos de datos en España que ya tienen contratos con AWS verán a Claude como la opción natural para tareas de IA generativa, con facturación unificada y soporte en los mismos canales.

Qué cambia en la guerra de los chips de IA

El detalle de los chips Trainium no es menor. Hasta ahora, el entrenamiento de modelos de gran escala dependía casi exclusivamente de las GPU H100 y H200 de NVIDIA, cuya demanda ha mantenido precios desorbitados y listas de espera de meses. Amazon lleva años desarrollando sus propios aceleradores —Trainium para entrenamiento e Inferentia para inferencia— como alternativa a esa dependencia. El problema es que ningún modelo de primer nivel había apostado de forma decidida por ellos en producción real.

Si Anthropic entrena las próximas versiones de Claude sobre chips Trainium dentro de AWS, ese es el caso de uso que Amazon necesita para demostrar que su silicio puede competir con NVIDIA en las tareas más exigentes. No se trata solo de ahorro de costes para Anthropic: es el banco de pruebas que legitima los chips de Amazon ante el resto del mercado. Si Claude 4 o Claude 5 se entrenan con Trainium y rinden a la altura de los modelos rivales, otros laboratorios de IA tendrán una razón concreta para considerar AWS como alternativa a los proveedores que se apoyan exclusivamente en NVIDIA.

Este movimiento tiene implicaciones más allá de la IA. Cualquier empresa tecnológica —desde startups hasta grandes corporaciones— que esté evaluando dónde alojar su infraestructura de IA en los próximos tres o cinco años observará con atención cómo evoluciona este acuerdo. La dependencia de NVIDIA, con su cotización disparada y su posición dominante, es un riesgo que muchos quieren diversificar. Amazon está construyendo, a través de Anthropic, el argumento más sólido que tiene para ofrecer esa alternativa.

Cómo queda el tablero frente a Microsoft y Google

La comparación más directa es con Microsoft, que lleva invertidos más de 13.000 millones de dólares en OpenAI y ha integrado sus modelos en prácticamente toda su suite de productos: Windows, Office, GitHub, Azure y Bing. Esa integración vertical ha sido el motor del crecimiento de Copilot y ha dado a Microsoft una ventaja significativa en el segmento empresarial. Amazon replica ahora ese modelo, pero con matices: en lugar de integrar Claude en productos de consumo propios —Amazon no tiene una suite ofimática equivalente a Microsoft 365—, lo sitúa como el motor de IA de la infraestructura cloud más usada por empresas en todo el mundo.

Google, por su parte, tiene la ventaja de controlar DeepMind y haber desarrollado Gemini de forma interna, lo que le da una integración más profunda entre modelo y hardware. Los TPU de Google y los modelos Gemini están diseñados conjuntamente, algo que Amazon intentará aproximar con la combinación Trainium-Claude. La diferencia es que Google tiene que convencer a sus clientes de migrar a Google Cloud, mientras que Amazon ya domina el mercado de infraestructura cloud con una cuota que ronda el 30% a nivel global, por encima de Azure y muy por encima de Google Cloud.

Para Anthropic, el acuerdo también tiene una dimensión competitiva clara frente a OpenAI. Mientras que OpenAI está construyendo su propia infraestructura —incluyendo el proyecto Stargate en Estados Unidos, con compromisos de inversión que se miden en cientos de miles de millones— y depende de Microsoft para su distribución, Anthropic asegura acceso a capacidad de cómputo a escala sin necesidad de construir centros de datos propios. Es una estrategia diferente, más eficiente en capital a corto plazo, aunque con mayor dependencia de un socio externo.

Qué cabe esperar

Los próximos hitos del acuerdo estarán ligados a los propios avances de Claude. Los 20.000 millones de dólares condicionados no se activarán automáticamente: Anthropic tendrá que demostrar que sus modelos alcanzan determinados niveles de rendimiento o adopción que justifiquen el desembolso adicional. Eso convierte los próximos lanzamientos de Claude en eventos con consecuencias financieras directas para ambas compañías. El mercado vigilará si los nuevos modelos de Anthropic mantienen el ritmo de mejora frente a GPT-4.5, Gemini 2.0 Ultra y los modelos que Meta sigue liberando en código abierto. A corto plazo, la integración de Claude en los servicios de AWS —especialmente en Bedrock y en las herramientas de IA para empresas— será la señal más tangible de que el acuerdo está pasando del papel a la práctica.