Amazon Web Services (AWS) anunció el lanzamiento de nuevas herramientas destinadas a facilitar la creación y personalización de modelos de lenguaje grandes (LLM) sin que los desarrolladores deban ocuparse de la gestión de infraestructura o recursos computacionales.
Estas capacidades, presentadas en el marco de la conferencia AWS re:Invent, apuntan a responder a una demanda en ascenso: empresas que buscan diferenciarse mediante modelos de inteligencia artificial adaptados de manera específica a sus marcas y casos de uso.
Personalización de modelos de lenguaje grandes: el enfoque de AWS
El avance principal presentado por AWS es la posibilidad de personalizar LLMs utilizando Amazon Bedrock y Amazon SageMaker AI, dos de sus plataformas más relevantes en inteligencia artificial en la nube. Una de las novedades más destacadas es la incorporación de la personalización de modelos sin servidor en SageMaker.
Ahora, los desarrolladores pueden iniciar la construcción de un modelo personalizado sin preocuparse por la infraestructura subyacente, ni por la estimación de recursos computacionales necesarios.
Según Ankur Mehrotra, gerente general de plataformas de IA en AWS, se ha concluido que la clave para resolver ese problema reside en la capacidad de crear modelos personalizados. Esta estrategia responde a una inquietud común entre los clientes empresariales de AWS: la dificultad de diferenciar sus productos cuando las herramientas de IA subyacentes son ampliamente accesibles para sus competidores.
Interfaz intuitiva y opciones dirigidas por agentes
La experiencia de desarrollo incorpora caminos autoguiados y dirigidos por agentes. Los usuarios pueden optar por un sistema de apuntar y hacer clic para personalizar su modelo, o utilizar una funcionalidad asistida por agentes, que incorpora lenguaje natural para gestionar SageMaker.
Esta última función se lanza de manera preliminar, mostrando el interés de AWS por simplificar la interacción con herramientas avanzadas de inteligencia artificial y abrirlas a públicos menos técnicos.
Como aclaró Mehrotra en una entrevista con TechCrunch, el objetivo es que “si usted es un cliente del sector salud y desea un modelo que pueda comprender mejor cierta terminología médica, puede simplemente apuntar SageMaker AI, si tiene datos etiquetados, luego seleccionar la técnica y luego SageMaker se pone en marcha y afina el modelo”.
Compatibilidad y modelos abiertos en la nube de AWS
Esta tecnología está disponible para la personalización de los modelos Nova, desarrollados por Amazon, y de determinados modelos de código abierto con pesos de modelo disponibles públicamente. Entre estos modelos figuran opciones populares como DeepSeek y Llama de Meta.
La apuesta de AWS por compatibilizar su infraestructura con modelos de terceros busca atraer a sectores diversos e impulsar la adopción de estas soluciones en un mercado donde la flexibilidad es una prioridad.
Por otra parte, la plataforma Bedrock también incorpora una función de Reinforcement Fine-Tuning, que ofrece a los desarrolladores la posibilidad de elegir una función de recompensa o flujo de trabajo preestablecido para que el proceso de personalización del modelo se realice de manera automática y completa.
Nova Forge y el modelo de IA como servicio personalizado
Durante la conferencia principal de Matt Garman, CEO de AWS, se anunció Nova Forge, un nuevo servicio enfocado en la creación de modelos personalizados para clientes empresariales. Por una tarifa de USD 100.000 anuales, AWS desarrolla y entrena modelos Nova adaptados a las necesidades y datos de cada organización, una estrategia orientada a consolidar su posición frente a competencias como Anthropic, OpenAI y Gemini.
Mehrotra mencionó que muchos clientes plantean preguntas como: “Si mi competencia tiene acceso al mismo modelo, ¿cómo puedo diferenciarme? ¿Cómo puedo crear soluciones únicas que estén optimizadas, que optimicen mi marca, mis datos y mi caso de uso, y cómo puedo diferenciarme?“.
A pesar de la innovación y diversidad de opciones presentadas, AWS no ha alcanzado aún una base de usuarios tan amplia para sus modelos de IA como la de sus principales rivales en la nube.
Una encuesta realizada en julio por Menlo Ventures reveló que las empresas prefieren considerablemente a Anthropic, OpenAI y Gemini frente a otras alternativas. Sin embargo, AWS busca generar una ventaja competitiva mediante la escalabilidad y personalización de LLMs, enfocándose en la diferenciación como su principal argumento de valor.