Startups de chips IA recaudan 8.300 millones en 2026 para destronar a Nvidia

Startups de chips IA recaudan 8.300 millones en 2026 para destronar a Nvidia

8.300 millones de dólares. Eso es lo que han captado las startups de chips de inteligencia artificial en lo que llevamos de 2026, según datos de Dealroom. El monopolio de Nvidia en el hardware IA tiene, por primera vez, competidores con músculo financiero real. Y la pelea no va sobre quién fabrica la GPU más potente, sino sobre quién reinventa la arquitectura desde cero.

Qué ha pasado exactamente

El mercado de chips para inteligencia artificial está viviendo una avalancha de capital sin precedentes en el lado de los retadores. En febrero, Cerebras Systems cerró una ronda de 1.000 millones de dólares. Poco después, MatX, Ayar Labs y Etched recibieron cada una rondas de 500 millones durante 2026. Solo estas cuatro empresas suman ya 2.500 millones, y eso es solo en Estados Unidos.

Europa no se queda atrás. Axelera y Olix han superado los 200 millones recaudados este año. Mientras tanto, Euclyd, Optalysys, Fractile y Arago tienen sobre la mesa rondas de al menos 100 millones cada una para cerrar antes de que acabe 2026. El fondo de innovación de la OTAN (NIF) es uno de los inversores en Fractile, la startup británica, lo que añade una dimensión estratégica y geopolítica a la historia.

La tesis que venden todas estas empresas es la misma: las GPUs de Nvidia fueron diseñadas para videojuegos, no para inteligencia artificial. Funcionan, sí, pero no son el instrumento óptimo. El argumento es que una arquitectura construida específicamente para IA —y en particular para inferencia, es decir, usar los modelos una vez entrenados— puede ofrecer un rendimiento por vatio y por dólar mucho mayor.

Nvidia, lejos de ignorar la amenaza, está moviendo ficha. En diciembre adquirió activos de Groq —especializada precisamente en inferencia— por 20.000 millones de dólares, y anunció inversiones de 4.000 millones en dos empresas de tecnología fotónica. No son movimientos defensivos menores.

Por qué esto importa ahora

Durante años, el debate sobre chips IA era académico. Los modelos grandes necesitaban entrenamiento masivo, y para eso las GPUs de Nvidia eran las únicas que realmente funcionaban a escala. El ecosistema CUDA —la API de Nvidia que permite programar sus chips en paralelo— creó una dependencia enorme. Cambiar de proveedor no era solo cambiar hardware: era reescribir años de código.

Pero el momento en que vivimos ahora es diferente. El entrenamiento de los grandes modelos ya está concentrado en muy pocas empresas —OpenAI, Anthropic, Google, Meta—. Lo que crece de forma exponencial es la inferencia: cada vez que usas ChatGPT, Gemini o Copilot, hay chips ejecutando ese modelo. Y la inferencia tiene un perfil de carga distinto al entrenamiento, más predecible, más repetitivo, más susceptible de ser optimizado con arquitecturas dedicadas.

TSMC, la fundición que fabrica los chips más avanzados del mundo, reportó en el primer trimestre de 2026 un crecimiento del beneficio del 58%, superando todas las previsiones. Eso habla de una demanda de silicio que no para. La pregunta es quién captura ese valor: si solo Nvidia, o también los nuevos actores que están entrando ahora con dinero fresco y arquitecturas distintas.

Qué dicen los que saben

Patrick Schneider-Sikorsky, director del Fondo de Innovación de la OTAN, lo resume con claridad: *»La inferencia ya es dominante, y la arquitectura GPU actual no fue diseñada de manera óptima para eso»*. Que el brazo inversor de la OTAN esté poniendo dinero en startups de chips no es un detalle menor. Refleja que Europa está mirando la soberanía tecnológica en hardware como una cuestión estratégica, no solo comercial.

Carlos Espinal, de Seedcamp —uno de los fondos de referencia en el ecosistema emprendedor europeo—, señala que esto ha dejado de ser una apuesta nicho. *»Se está convirtiendo en una parte central de cómo las personas piensan sobre infraestructura AI»*, dijo sobre su inversión en Vaire Computing. Lo interesante aquí es que Seedcamp históricamente ha apostado por software. Que ahora estén financiando fabricantes de chips dice mucho sobre hacia dónde va el dinero inteligente.

Lo que nadie te está contando

Hay un elefante en la sala que pocas coberturas mencionan: el ecosistema de software es el verdadero foso de Nvidia, no el hardware. CUDA lleva más de 15 años acumulando integraciones, librerías, frameworks y desarrolladores. PyTorch, TensorFlow, y prácticamente cualquier herramienta de IA seria corre sobre CUDA de forma nativa. Una startup puede fabricar un chip técnicamente superior en eficiencia energética, pero si los ingenieros tienen que reescribir sus pipelines para usarlo, la adopción se frena en seco. Esto es lo que históricamente ha matado a los challengers: no el hardware, sino el coste de cambio del software.

La segunda cosa que se está contando poco es el riesgo de concentración inversa. Si en los próximos dos años diez startups levantan 500 millones cada una y solo dos o tres logran tracción real, habrá un ajuste violento. Los 8.300 millones de 2026 no se traducirán automáticamente en chips viables en producción. La distancia entre una ronda de financiación y un chip que funciona en un datacenter real a escala es enorme: de hecho, varias startups de chips de la ola anterior —Graphcore, Cerebras en sus primeras versiones, Intel con Gaudi— han tenido dificultades para convertir inversión en cuota de mercado. El dinero es condición necesaria, pero no suficiente.

Qué esperar a partir de ahora

Si la demanda de inferencia sigue creciendo al ritmo actual —y no hay señales de que vaya a frenar—, veremos los primeros contratos significativos de hyperscalers con startups de chips IA antes de finales de 2027. El movimiento de Nvidia comprando Groq por 20.000 millones es la señal más clara de que la empresa sabe dónde está la próxima batalla. La pregunta real no es si alguien puede destronar a Nvidia, sino cuánto del mercado de inferencia puede quedarse alguien más antes de que Nvidia cierre el paso.