Amazon ha actualizado SageMaker AI con una capacidad de agentic fine-tuning: un agente diseñado específicamente para ayudar a desarrolladores a personalizar modelos de lenguaje sin necesidad de gestionar manualmente cada paso del proceso. La actualización, recogida por The Decoder, incluye soporte para Llama, Qwen, DeepSeek y Nova.
Qué ha pasado exactamente
Según informa The Decoder, SageMaker AI ahora incorpora un agente de IA cuya función es guiar y automatizar el proceso de ajuste fino (*fine-tuning*) de modelos de lenguaje. El soporte abarca cuatro familias de modelos: Llama (Meta), Qwen (Alibaba), DeepSeek y Nova (Amazon). Más allá de eso, el comunicado no especifica cifras de rendimiento, fechas de disponibilidad general ni precios concretos.
Lo que sí queda claro es el enfoque: en lugar de que el desarrollador configure manualmente los parámetros del entrenamiento, el agente toma parte de esa carga. Es la misma lógica que Shopify ya aplicó internamente, donde —según datos publicados por la propia empresa— afinaron Qwen3-32B para generar automatizaciones de Flow desde lenguaje natural, logrando resultados más rápidos, baratos y precisos que el modelo base que reemplazaron.
El contexto del sector: no es el único en esto
Amazon no llega solo a este espacio. Fastino acaba de lanzar Pioneer, descrito por la empresa como un agente de estado del arte para el fine-tuning e inferencia adaptativa de modelos de lenguaje abiertos. La investigación académica FireAct ya había demostrado los beneficios del ajuste fino específico para agentes: mejor escalabilidad, mayor robustez y menor coste operativo frente a los modelos generalistas.
Lo que hace diferente la propuesta de Amazon es la integración directa en SageMaker, una plataforma que ya usan miles de equipos de desarrollo empresarial. No es un producto nuevo que hay que adoptar: es una capacidad que aparece dentro de la infraestructura que muchos ya tienen contratada. Para una startup que ya corre cargas de trabajo en AWS, la barrera de entrada acaba de bajar considerablemente.
Aquí me parece legítimo hacer una pregunta incómoda: ¿cuánto de esto es genuinamente útil y cuánto es Amazon asegurándose de que sus clientes no migren a plataformas especializadas como Together AI o Modal? La integración en SageMaker tiene valor real, pero también es una jugada de retención de plataforma bastante obvia.
La elección de modelos soportados —Llama, Qwen, DeepSeek y Nova— tampoco es neutral. Los cuatro son open-weight o propios de Amazon, lo que evita cualquier dependencia de OpenAI o Anthropic en el pipeline de personalización. Amazon construye un ecosistema donde puede prescindir de sus propios proveedores de modelos si la relación comercial se complica.
La fecha exacta de disponibilidad general de esta funcionalidad en SageMaker no ha sido confirmada en el material publicado hasta ahora.