Al utilizar este sitio, acepta la Política de privacidad y Terms y Condiciones.
Aceptar
MastekHwMastekHwMastekHw
  • Noticias
  • Tecnología
    Tecnología
    Todas las noticias más importantes de la tecnología la encuentras aquí en MastekHw, Categoría Tecnología, noticias, lanzamientos, entrevistas y más.
    Ver más
    Noticias Destacadas
    Experis reafirma su compromiso con la sostenibilidad
    Experis reafirma su compromiso con la sostenibilidad
    hace 6 meses
    Informe de Banca de Consumo de Galileo es presentado
    Informe de Banca de Consumo de Galileo es presentado
    hace 6 meses
    Geotab implementa IA para revolucionar la seguridad vial
    Geotab implementa IA para revolucionar la seguridad vial
    hace 6 meses
    Últimas Noticias
    Globant y YPF anuncian el proyecto Digital Suppl.AI
    hace 19 horas
    Merge y Loymark anuncian de manera oficial su fusión
    hace 18 horas
    Gamescom latam regresará el 30 de abril de 2026
    hace 20 horas
    MSI estará presente en el Red Bull Tetris – Taiwan Stop
    hace 11 horas
  • Móviles
    MóvilesVer más
    Cyber Xiaomi 2025: tecnología accesible para cada estilo de vida
    3 Min en Leer
    Samsung Electronics obtiene la certificación Platinum de UL Solutions Zero Waste to Landfill para todos sus centros de fabricación globales
    5 Min en Leer
    REDMAGIC 11 Pro ya está disponible en China
    REDMAGIC 11 Pro ya está disponible en China
    6 Min en Leer
    HONOR presentará el ROBOT PHONE que integra IA, robótica e imagen portátil
    3 Min en Leer
    Motorola anuncia en Colombia el nuevo moto g06
    Motorola anuncia en Colombia el nuevo moto g06
    5 Min en Leer
  • PC
  • Gaming
  • Reviews
  • Guardados
  • Contacto
Buscar
  • Contacto
  • Blog
  • Publicidad
© 2018 MastekHw Service International. LLc. Todos los derechos reservados.
Leyendo: Intel y el Instituto Weizmann presentan avances en decodificación especulativa
Compartir
Notificación
Tamaño TextoAa
MastekHwMastekHw
Tamaño TextoAa
  • Noticias
  • Tecnología
  • Móviles
Buscar
  • Categorias
    • Noticias
    • Tecnología
    • PC
    • Móviles
    • Entretenimiento
    • Gaming
    • Reviews
Síguenos
  • Contacto
  • Blog
  • Publicidad
© 2018 MastekHw Service International. LLc. Todos los derechos reservados.
MastekHw > Noticias > Noticias > Intel y el Instituto Weizmann presentan avances en decodificación especulativa
NoticiasTecnología

Intel y el Instituto Weizmann presentan avances en decodificación especulativa

Carlos Cantor
Última actualización: julio 17, 2025 5:43 pm
Carlos Cantor
Compartir
Intel y el Instituto Weizmann presentan avances en decodificación especulativa
Compartir

En la Conferencia Internacional sobre Aprendizaje Automático (ICML), investigadores de Intel Labs y el Instituto Weizmann de Ciencias presentaron un importante avance en la decodificación especulativa. La nueva técnica, presentada en la conferencia en Vancouver, Canadá, permite que cualquier modelo de «borrador» pequeño acelere cualquier modelo de lenguaje grande (LLM) independientemente de las diferencias de vocabulario. «Hemos resuelto una ineficiencia central en la IA generativa. Nuestra investigación muestra cómo convertir la aceleración especulativa en una herramienta universal. No se trata solo de una mejora teórica; estas son herramientas prácticas que ya están ayudando a los desarrolladores a crear aplicaciones más rápidas e inteligentes hoy en día», dijo Oren Pereg, investigador senior del Grupo de Procesamiento del Lenguaje Natural de Intel Labs.

La decodificación especulativa es una técnica de optimización de inferencia diseñada para hacer que los LLM sean más rápidos y eficientes sin comprometer la precisión. Funciona emparejando un modelo pequeño y rápido con uno más grande y preciso, creando un «esfuerzo de equipo» entre modelos. Considere la indicación de un modelo de IA: «¿Cuál es la capital de Francia…» Un LLM tradicional genera cada palabra paso a paso. Calcula completamente «París», luego «a», luego «famoso», luego «ciudad» y así sucesivamente, consumiendo recursos significativos en cada paso. Con la decodificación especulativa, el pequeño modelo asistente redacta rápidamente la frase completa «París, una ciudad famosa…» A continuación, el modelo grande verifica la secuencia. Esto reduce drásticamente los ciclos de proceso por token de salida.

Por qué es importante: Este método universal de Intel y el Instituto Weizmann elimina las limitaciones de los vocabularios compartidos o las familias de modelos entrenados conjuntamente, lo que hace que la decodificación especulativa sea práctica en modelos heterogéneos. Ofrece ganancias de rendimiento de inferencia hasta 2,8 veces más rápidas sin pérdida de calidad de salida. También funciona en modelos de diferentes desarrolladores y ecosistemas, lo que lo hace independiente del proveedor; está listo para código abierto a través de la integración con la biblioteca Hugging Face Transformers.

En un panorama de IA fragmentado, este avance de decodificación especulativa promueve la apertura, la interoperabilidad y la implementación rentable desde la nube hasta el borde. Los desarrolladores, las empresas y los investigadores ahora pueden mezclar y combinar modelos para adaptarse a sus necesidades de rendimiento y restricciones de hardware». Este trabajo elimina una importante barrera técnica para hacer que la IA generativa sea más rápida y barata», dijo Nadav Timor, estudiante de doctorado en el grupo de investigación del profesor David Harel en el Instituto Weizmann. «Nuestros algoritmos desbloquean aceleraciones de última generación que anteriormente solo estaban disponibles para organizaciones que entrenan sus propios modelos de borrador pequeños».

El trabajo de investigación presenta tres nuevos algoritmos que desacoplan la codificación especulativa de la alineación del vocabulario. Esto abre la puerta a una implementación flexible de LLM en la que los desarrolladores emparejan cualquier modelo de borrador pequeño con cualquier modelo grande para optimizar la velocidad y el costo de la inferencia en todas las plataformas.

La investigación no es solo teórica. Los algoritmos ya están integrados en la biblioteca de código abierto Hugging Face Transformers utilizada por millones de desarrolladores. Con esta integración, la aceleración avanzada de LLM está disponible de forma inmediata sin necesidad de código personalizado.

Razer presenta el ecosistema WYVRN
Gemini llega a los Samsung Galaxy Watch y Buds
realme C75 llegará muy pronto a Colombia
BIWIN anunció el SSD Portátil Predator GP30
AMD ofrece en Colombia las mejores ofertas para el Día del Padre
ETIQUETADO:aprendizaje automáticoDavid HarelHugging Face TransformersIAInstituto Weizmann de CienciasintelIntel LabsInteligencia ArtificialLLMWeizmann
Comparte este artículo
Facebook Copiar enlace
Compartir
Artículo anterior AMD anuncia los nuevos Threadripper PRO 9000 WX-Series AMD anuncia los nuevos Threadripper PRO 9000 WX-Series
Siguiente Artículo La colección Razer | Pokémon llegará pronto a América Latina La colección Razer | Pokémon llegará pronto a América Latina
- Publicidad -
Ad imageAd image

Síguenos

FacebookSeguir Fb
XSeguir
InstagramSeguir
YouTubeSuscríbete
TikTokSeguir
LinkedInSeguir

Últimas noticias

MI AYRTON, POR ADRIANE GALISTEU llega el 6 de noviembre a HBO Max
MI AYRTON, POR ADRIANE GALISTEU llega el 6 de noviembre a HBO Max
Entretenimiento Noticias
Globant y YPF anuncian el proyecto Digital Suppl.AI
Globant y YPF anuncian el proyecto Digital Suppl.AI
Noticias Tecnología
Only Murders in the Building es confirmada para una sexta temporada
Only Murders in the Building es confirmada para una sexta temporada
Entretenimiento Noticias
AMD lanza el driver adrenalin 25.10.2 con optimización para nuevos juegos
AMD lanza el driver adrenalin 25.10.2 con optimización para nuevos juegos
Gaming Noticias PC

Te puede interesar...

Drake Bell estará en Comic Con Colombia 2025
NoticiasTecnología

Drake Bell estará en Comic Con Colombia 2025

Carlos Cantor
Carlos Cantor
2 Min en Leer
LG Electronics fue protagonista en los Red Dot Design Award 2025
NoticiasTecnología

LG Electronics fue protagonista en los Red Dot Design Award 2025

Carlos Cantor
Carlos Cantor
3 Min en Leer
inZOI ya está disponible en acceso anticipado
NoticiasTecnología

inZOI ya está disponible en acceso anticipado

Carlos Cantor
Carlos Cantor
4 Min en Leer
//

Somos el portal donde obtendrás las novedades sobre tecnología y entretenimiento digital

Enlaces Rápido

  • Contacto
  • Blog
  • Publicidad

Soporte

  • Términos y Condiciones
  • Política de cookies
  • Política de Privacidad

Suscríbete a nuestro boletín

Suscríbase a nuestro boletín para recibir nuestros artículos más recientes.

MastekHwMastekHw
Síguenos
© 2018 MastekHw Service International. LLc. Todos los derechos reservados.
adbanner
Bienvenido de nuevo!

Accede a tu cuenta

Usuario o Email
Contraseña

¿Ha perdido su contraseña?