NoticiasTecnología

IBM anuncia la disponibilidad de Mixtral-8x7B

IBM anuncia la disponibilidad de Mixtral-8x7B

IBM ha anunciado la disponibilidad del popular modelo de lenguaje de gran tamaño (LLM) de código abierto Mixtral-8x7B, desarrollado por Mistral AI, en su plataforma de datos e IA watsonx, a medida que continúa ampliando las capacidades para ayudar a los clientes a innovar con los modelos de base propios de IBM y los de una serie de proveedores de código abierto. IBM ofrece una versión optimizada de Mixtral-8x7B que, en pruebas internas, fue capaz de aumentar el rendimiento -o la cantidad de datos que pueden procesarse en un periodo de tiempo determinado- en un 50% en comparación con el modelo normal. Esto podría reducir la latencia entre un 35 y un 75 por ciento, dependiendo del tamaño del lote, es decir, acelerar el tiempo de comprensión. Esto se consigue mediante un proceso llamado cuantización, que reduce el tamaño del modelo y los requisitos de memoria de los LLM y, a su vez, puede acelerar el procesamiento para ayudar a reducir los costes y el consumo de energía.

La incorporación de Mixtral-8x7B amplía la estrategia abierta y multimodelo de IBM para responder a las necesidades de los clientes y ofrecerles opciones y flexibilidad para escalar las soluciones de IA empresarial en sus negocios. A través de décadas de investigación y desarrollo de IA, colaboración abierta con Meta y Hugging Face, y asociaciones con líderes de modelos, IBM está ampliando su catálogo de modelos watsonx.ai e incorporando nuevas capacidades, lenguajes y modalidades. Las opciones de modelos básicos listos para la empresa de IBM y su plataforma de datos e IA watsonx pueden permitir a los clientes utilizar la IA generativa para obtener nuevos conocimientos y eficiencias, y crear nuevos modelos de negocio basados en principios de confianza. IBM permite a los clientes seleccionar el modelo adecuado para los casos de uso y los objetivos de precio-rendimiento adecuados para ámbitos empresariales específicos, como las finanzas.

Mixtral-8x7B se construyó utilizando una combinación de Sparse modeling -una técnica innovadora que encuentra y utiliza sólo las partes más esenciales de los datos para crear modelos más eficientes- y la técnica Mixture-of-Experts, que combina diferentes modelos («expertos») que se especializan y resuelven diferentes partes de un problema. El modelo Mixtral-8x7B es ampliamente conocido por su capacidad de procesar y analizar rápidamente grandes cantidades de datos para proporcionar perspectivas relevantes para el contexto.

«Los clientes piden opciones y flexibilidad para desplegar los modelos que mejor se adapten a sus casos de uso y requisitos empresariales únicos», afirma Kareem Yusuf, Doctor y Vicepresidente Senior de Gestión de Productos y Crecimiento de IBM Software. «Al ofrecer Mixtral-8x7B y otros modelos en watsonx, no solo les estamos dando opcionalidad en la forma en que despliegan la IA: estamos potenciando un sólido ecosistema de constructores de IA y líderes empresariales con herramientas y tecnologías para impulsar la innovación en diversas industrias y dominios.»

Esta semana, IBM también ha anunciado la disponibilidad de ELYZA-japanese-Llama-2-7b, un modelo LLM japonés de código abierto de ELYZA Corporation, en watsonx. IBM también ofrece los modelos de código abierto Llama-2-13B-chat y Llama-2-70B-chat de Meta y otros modelos de terceros en watsonx, y habrá más en los próximos meses.

Carlos Cantor

Carlos Cantor

GeekAdicto
Ingeniero industrial apasionado por la tecnología. Colombiano amante de la cerveza. Adicto a los E-sports.