La eficiencia ha surgido como un desafío crítico para las organizaciones que implementan IA. Aunque construir aplicaciones de IA se ha vuelto más fácil, ejecutarlas a escala sigue siendo costoso e intensivo en recursos. Este reto es especialmente relevante para los agentes de IA, que requieren mayor capacidad de cómputo para analizar problemas complejos, usar diversas herramientas y coordinarse a través de múltiples sistemas..
La mayoría de las empresas optan por los modelos más grandes y capaces para impulsar sus agentes, pero una cantidad significativa del tiempo de un agente se gasta haciendo tareas rutinarias como revisar calendarios y buscar documentos, que no requieren inteligencia avanzada. ¿El resultado? Costos innecesarios, respuestas más lentas y recursos desperdiciados.
La solución reside en la personalización: adaptar modelos más pequeños y especializados para manejar el trabajo que los agentes realizan con mayor frecuencia para entregar respuestas más rápidas y precisas a menor costo. Sin embargo, técnicas avanzadas de personalización como el aprendizaje por refuerzo requerían experiencia profunda en machine learning, infraestructura compleja y meses de desarrollo.
En el marco de AWS re:Invent 2025 en Las Vegas, AWS anunció nuevas capacidades de Amazon Bedrock y Amazon SageMaker AI que hacen que la personalización avanzada de modelos sea accesible para cualquier desarrollador. Reinforcement Fine Tuning (RFT) en Amazon Bedrock y la personalización serverless de modelos en Amazon SageMaker AI con aprendizaje por refuerzo simplifican la creación de modelos más eficientes, rápidos y rentables en comparación con los modelos base. Esto facilita que organizaciones de todos los tamaños construyan agentes personalizados según sus necesidades.
RFT facilitado para desarrolladores cotidianos con Amazon Bedrock
Las técnicas de personalización complejas han sido un obstáculo para construir modelos personalizados y eficientes. El aprendizaje por refuerzo, por ejemplo, entrena un modelo utilizando retroalimentación humana o generada por otro modelo. ,reforzando los buenos comportamientos y corrigiendo los incorrectos. Algo especialmente útil en tareas de razonamiento o flujos complejos porque premia buenos procesos, no solo buenas respuestas. Pero requiere infraestructura intensiva y retroalimentación especializada.
RFT en Amazon Bedrock simplifica este proceso, abriéndolo a cualquier desarrollador. . Amazon Bedrock es una plataforma de IA completamente administrada que brinda a las empresas acceso a modelos fundacionales de alto rendimiento de los principales desarrolladores de IA, junto con capacidades para construir agentes y aplicaciones de IA generativa con características de seguridad, privacidad e IA responsable. RFT en Amazon Bedrock ofrece mejoras de precisión del 66% en promedio respecto a los modelos base, permitiendo obtener mejores resultados con modelos más pequeños y eficientes.
El proceso es simple: los desarrolladores seleccionan su modelo base, lo dirigen a sus registros de invocación (en otras palabras, el historial de la IA), o cargan un conjunto de datos. Luego, eligen una función de recompensa: basada en IA, basada en reglas o una plantilla lista para usar. Los flujos de trabajo automatizados en Amazon Bedrock manejan el proceso de ajuste fino de extremo a extremo. No se requiere un doctorado en machine learning, sólo un sentido claro de cómo se ven los buenos resultados para el negocio. En el lanzamiento, RFT en Amazon Bedrock admitirá el modelo Amazon Nova 2 Lite. La compatibilidad con modelos adicionales llegará pronto.
Clientes como Salesforce y Weni by VTEX han visto mayor precisión y eficiencia usando RFT en Amazon Bedrock. Phil Mui, SVP de Ingeniería de Software, Agentforce en Salesforce, dijo: «Las pruebas de referencia de AWS con Reinforcement Fine Tuning de Amazon Bedrock muestran resultados prometedores, demostrando hasta un 73% de mejora sobre el modelo base en precisión para nuestros requisitos empresariales específicos. Anticipamos aprovechar RFT para mejorar y extender lo que ya logramos con el ajuste fino supervisado, permitiéndonos entregar soluciones de IA aún más precisas y personalizadas para nuestros clientes. Este enfoque complementa nuestro flujo de trabajo existente de desarrollo de IA mientras mantiene los altos estándares de Salesforce para calidad y seguridad».
Amazon SageMaker AI acelera la personalización de modelos de meses a días
Los equipos que requieren mayor control sobre el proceso de desarrollo de IA pueden recurrir a Amazon SageMaker AI. Desde su lanzamiento en 2017, la plataforma ha permitido acelerar y simplificar los flujos de trabajo de modelado. Hoy, mientras más organizaciones buscan técnicas de personalización complejas, aumenta la necesidad de experiencias que eliminen cuellos de botella asociados a la infraestructura o a la generación de datos sintéticos.
Por ello, SageMaker AI incorpora capacidades serverless de personalización de modelos que permiten completar estos procesos en cuestión de días. Existen dos experiencias:
- Experiencia basada en agentes (vista previa): el desarrollador describe en lenguaje natural lo que necesita y un agente guía todo el proceso, desde la generación de datos sintéticos hasta la evaluación.
- Experiencia autoguiada: para quienes buscan control granular sin gestionar infraestructura, con herramientas para elegir técnicas y ajustar parámetros según el caso.
Ambas opciones permiten acceder a técnicas avanzadas como Reinforcement Learning from AI Feedback, Reinforcement Learning with Verifiable Rewards, Supervised Fine-Tuning y Direct Preference Optimization. Las nuevas capacidades funcionarán con Amazon Nova y con modelos de pesos abiertos como Llama, Qwen, DeepSeek y GPT-OSS, ampliando las alternativas para cada caso de uso..
Clientes como Robin AI, Vody y Collinear AI ya han comenzado a simplificar sus procesos con estas capacidades. Collinear AI, por ejemplo, reporta que el flujo unificado de personalización serverless de SageMaker AI redujo ciclos de experimentación de semanas a días, permitiéndoles concentrarse en mejorar datos y simulaciones en lugar de gestionar infraestructura o plataformas separadas.

