Al utilizar este sitio, acepta la Política de privacidad y Terms y Condiciones.
Aceptar
MastekHwMastekHwMastekHw
  • Noticias
  • Tecnología
    Tecnología
    Todas las noticias más importantes de la tecnología la encuentras aquí en MastekHw, Categoría Tecnología, noticias, lanzamientos, entrevistas y más.
    Ver más
    Noticias Destacadas
    Incode anuncia el lanzamiento de Deepsight
    Incode anuncia el lanzamiento de Deepsight
    hace 5 meses
    Sony revela la línea de televisores BRAVIA 2025
    Sony revela la línea de televisores BRAVIA 2025
    hace 1 año
    Proteintech selecciona a AWS como su proveedor de servicios en la nube
    Proteintech selecciona a AWS como su proveedor de servicios en la nube
    hace 5 meses
    Últimas Noticias
    La carrera por la infraestructura de IA llega a Latinoamérica
    hace 21 horas
    Claro realizará la MasterClass Datos + IA el 14 de mayo
    hace 21 horas
    Motorola anuncia la expansión de su exclusiva Brilliant Collection
    hace 23 horas
    Inteligencia Artificial redefine la estrategia empresarial
    hace 22 horas
  • Móviles
    MóvilesVer más
    Motorola anuncia en Colombia los nuevos moto g max y moto g47
    Motorola anuncia en Colombia los nuevos moto g max y moto g47
    3 Min en Leer
    Motorola amplió su portafolio en Colombia
    Motorola amplió su portafolio en Colombia
    3 Min en Leer
    HUAWEI WATCH GT Runner 2 cuenta con Modo Maratón Inteligente
    HUAWEI WATCH GT Runner 2 cuenta con Modo Maratón Inteligente
    6 Min en Leer
    vivo smartphone trae el V70 FE con lente de 200 MP
    vivo smartphone trae el V70 FE con lente de 200 MP
    13 Min en Leer
    motorola edge 70 fusion FIFA World Cup 26 Collection ya disponible en Colombia
    motorola edge 70 fusion FIFA World Cup 26 Collection ya disponible en Colombia
    5 Min en Leer
  • PC
  • Gaming
  • Reviews
  • Guardados
  • Contacto
Buscar
  • Contacto
  • Blog
  • Publicidad
© 2018 MastekHw Service International. LLc. Todos los derechos reservados.
Leyendo: Intel y el Instituto Weizmann presentan avances en decodificación especulativa
Compartir
Notificación
Tamaño TextoAa
MastekHwMastekHw
Tamaño TextoAa
  • Noticias
  • Tecnología
  • Móviles
Buscar
  • Categorias
    • Noticias
    • Tecnología
    • PC
    • Móviles
    • Entretenimiento
    • Gaming
    • Reviews
Síguenos
  • Contacto
  • Blog
  • Publicidad
© 2018 MastekHw Service International. LLc. Todos los derechos reservados.
MastekHw > Noticias > Noticias > Intel y el Instituto Weizmann presentan avances en decodificación especulativa
NoticiasTecnología

Intel y el Instituto Weizmann presentan avances en decodificación especulativa

Carlos Cantor
Última actualización: julio 17, 2025 5:43 pm
Carlos Cantor
Compartir
Intel y el Instituto Weizmann presentan avances en decodificación especulativa
Compartir

En la Conferencia Internacional sobre Aprendizaje Automático (ICML), investigadores de Intel Labs y el Instituto Weizmann de Ciencias presentaron un importante avance en la decodificación especulativa. La nueva técnica, presentada en la conferencia en Vancouver, Canadá, permite que cualquier modelo de «borrador» pequeño acelere cualquier modelo de lenguaje grande (LLM) independientemente de las diferencias de vocabulario. «Hemos resuelto una ineficiencia central en la IA generativa. Nuestra investigación muestra cómo convertir la aceleración especulativa en una herramienta universal. No se trata solo de una mejora teórica; estas son herramientas prácticas que ya están ayudando a los desarrolladores a crear aplicaciones más rápidas e inteligentes hoy en día», dijo Oren Pereg, investigador senior del Grupo de Procesamiento del Lenguaje Natural de Intel Labs.

La decodificación especulativa es una técnica de optimización de inferencia diseñada para hacer que los LLM sean más rápidos y eficientes sin comprometer la precisión. Funciona emparejando un modelo pequeño y rápido con uno más grande y preciso, creando un «esfuerzo de equipo» entre modelos. Considere la indicación de un modelo de IA: «¿Cuál es la capital de Francia…» Un LLM tradicional genera cada palabra paso a paso. Calcula completamente «París», luego «a», luego «famoso», luego «ciudad» y así sucesivamente, consumiendo recursos significativos en cada paso. Con la decodificación especulativa, el pequeño modelo asistente redacta rápidamente la frase completa «París, una ciudad famosa…» A continuación, el modelo grande verifica la secuencia. Esto reduce drásticamente los ciclos de proceso por token de salida.

Por qué es importante: Este método universal de Intel y el Instituto Weizmann elimina las limitaciones de los vocabularios compartidos o las familias de modelos entrenados conjuntamente, lo que hace que la decodificación especulativa sea práctica en modelos heterogéneos. Ofrece ganancias de rendimiento de inferencia hasta 2,8 veces más rápidas sin pérdida de calidad de salida. También funciona en modelos de diferentes desarrolladores y ecosistemas, lo que lo hace independiente del proveedor; está listo para código abierto a través de la integración con la biblioteca Hugging Face Transformers.

En un panorama de IA fragmentado, este avance de decodificación especulativa promueve la apertura, la interoperabilidad y la implementación rentable desde la nube hasta el borde. Los desarrolladores, las empresas y los investigadores ahora pueden mezclar y combinar modelos para adaptarse a sus necesidades de rendimiento y restricciones de hardware». Este trabajo elimina una importante barrera técnica para hacer que la IA generativa sea más rápida y barata», dijo Nadav Timor, estudiante de doctorado en el grupo de investigación del profesor David Harel en el Instituto Weizmann. «Nuestros algoritmos desbloquean aceleraciones de última generación que anteriormente solo estaban disponibles para organizaciones que entrenan sus propios modelos de borrador pequeños».

El trabajo de investigación presenta tres nuevos algoritmos que desacoplan la codificación especulativa de la alineación del vocabulario. Esto abre la puerta a una implementación flexible de LLM en la que los desarrolladores emparejan cualquier modelo de borrador pequeño con cualquier modelo grande para optimizar la velocidad y el costo de la inferencia en todas las plataformas.

La investigación no es solo teórica. Los algoritmos ya están integrados en la biblioteca de código abierto Hugging Face Transformers utilizada por millones de desarrolladores. Con esta integración, la aceleración avanzada de LLM está disponible de forma inmediata sin necesidad de código personalizado.

[CES 2025] Belkin anuncia nuevos productos para creadores
La evolución del entretenimiento digital en Latinoamérica 
Razer BlackWidow V4 Tenkeyless HyperSpeed es anunciado
Entre mitos y píxeles: Colombia en modo historia
Samsung Electronics continua siendo líder en monitores gaming
ETIQUETADO:aprendizaje automáticoDavid HarelHugging Face TransformersIAInstituto Weizmann de CienciasintelIntel LabsInteligencia ArtificialLLMWeizmann
Comparte este artículo
Facebook Copiar enlace
Compartir
Artículo anterior AMD anuncia los nuevos Threadripper PRO 9000 WX-Series AMD anuncia los nuevos Threadripper PRO 9000 WX-Series
Siguiente Artículo La colección Razer | Pokémon llegará pronto a América Latina La colección Razer | Pokémon llegará pronto a América Latina
- Publicidad -
Ad imageAd image

Síguenos

FacebookSeguir Fb
XSeguir
InstagramSeguir
YouTubeSuscríbete
TikTokSeguir
LinkedInSeguir

Últimas noticias

Assetto Corsa Rally y la FIA anuncian una alianza global
Assetto Corsa Rally y la FIA anuncian una alianza global
Gaming Noticias
La carrera por la infraestructura de IA llega a Latinoamérica
La carrera por la infraestructura de IA llega a Latinoamérica
Noticias PC Tecnología
Claro realizará la MasterClass Datos + IA el 14 de mayo
Claro realizará la MasterClass Datos + IA el 14 de mayo
Noticias Tecnología
Motorola anuncia la expansión de su exclusiva Brilliant Collection
Motorola anuncia la expansión de su exclusiva Brilliant Collection
Noticias Tecnología

Te puede interesar...

AWS y El Banco de Occidente apuestan por la IA en la experiencia del cliente
NoticiasTecnología

AWS y El Banco de Occidente apuestan por la IA en la experiencia del cliente

Carlos Cantor
Carlos Cantor
7 Min en Leer
Innovaciones digitales en el futuro de la banca en Colombia
NoticiasTecnología

Innovaciones digitales en el futuro de la banca en Colombia

Carlos Cantor
Carlos Cantor
4 Min en Leer
Chris Chiang y Germano Couy llegan al liderazgo de Acer Panamérica
NoticiasTecnología

Chris Chiang y Germano Couy llegan al liderazgo de Acer Panamérica

Carlos Cantor
Carlos Cantor
2 Min en Leer
//

Somos el portal donde obtendrás las novedades sobre tecnología y entretenimiento digital

Enlaces Rápido

  • Contacto
  • Blog
  • Publicidad

Soporte

  • Términos y Condiciones
  • Política de cookies
  • Política de Privacidad

Suscríbete a nuestro boletín

Suscríbase a nuestro boletín para recibir nuestros artículos más recientes.

MastekHwMastekHw
Síguenos
© 2018 MastekHw Service International. LLc. Todos los derechos reservados.
Bienvenido de nuevo!

Accede a tu cuenta

Usuario o Email
Contraseña

¿Ha perdido su contraseña?