Al utilizar este sitio, acepta la Política de privacidad y Terms y Condiciones.
Aceptar
MastekHwMastekHwMastekHw
  • Noticias
  • Tecnología
    Tecnología
    Todas las noticias más importantes de la tecnología la encuentras aquí en MastekHw, Categoría Tecnología, noticias, lanzamientos, entrevistas y más.
    Ver más
    Noticias Destacadas
    Rematch supera el millón de copias vendidas
    Rematch supera el millón de copias vendidas
    hace 4 meses
    Ghost of Tsushima, God of War Ragnarök, Grand Theft Auto V, Hogwarts Legacy, Marvel’s Spider-Man: Miles Morales
    PlayStation Plus celebra su 15.º aniversario con nuevos juegos
    hace 4 meses
    Tiendanube resalta la importancia de las redes sociales
    Tiendanube resalta la importancia de las redes sociales
    hace 4 meses
    Últimas Noticias
    Competencias que necesitan los partners IT para sobresalir en el mercado
    hace 1 día
    Kia Colombia anuncia un acuerdo promocional con Disney+
    hace 1 día
    Epson estuvo presente en ExpoTextil Perú 2025
    hace 1 día
    El robot SRT-H lleva la IA a los quirófanos
    hace 1 día
  • Móviles
    MóvilesVer más
    REDMAGIC 11 Pro ya está disponible en China
    REDMAGIC 11 Pro ya está disponible en China
    6 Min en Leer
    HONOR presentará el ROBOT PHONE que integra IA, robótica e imagen portátil
    3 Min en Leer
    Motorola anuncia en Colombia el nuevo moto g06
    Motorola anuncia en Colombia el nuevo moto g06
    5 Min en Leer
    HONOR ROBOT PHONE será presentado en MWC 2026
    HONOR ROBOT PHONE será presentado en MWC 2026
    2 Min en Leer
    realme 15 Pro 5G, realme 15 5G y realme 15T ya están disponibles en Colombia
    realme 15 Pro 5G, realme 15 5G y realme 15T ya están disponibles en Colombia
    4 Min en Leer
  • PC
  • Gaming
  • Reviews
  • Guardados
  • Contacto
Buscar
  • Contacto
  • Blog
  • Publicidad
© 2018 MastekHw Service International. LLc. Todos los derechos reservados.
Leyendo: Intel y el Instituto Weizmann presentan avances en decodificación especulativa
Compartir
Notificación
Tamaño TextoAa
MastekHwMastekHw
Tamaño TextoAa
  • Noticias
  • Tecnología
  • Móviles
Buscar
  • Categorias
    • Noticias
    • Tecnología
    • PC
    • Móviles
    • Entretenimiento
    • Gaming
    • Reviews
Síguenos
  • Contacto
  • Blog
  • Publicidad
© 2018 MastekHw Service International. LLc. Todos los derechos reservados.
MastekHw > Noticias > Noticias > Intel y el Instituto Weizmann presentan avances en decodificación especulativa
NoticiasTecnología

Intel y el Instituto Weizmann presentan avances en decodificación especulativa

Carlos Cantor
Última actualización: julio 17, 2025 5:43 pm
Carlos Cantor
Compartir
Intel y el Instituto Weizmann presentan avances en decodificación especulativa
Compartir

En la Conferencia Internacional sobre Aprendizaje Automático (ICML), investigadores de Intel Labs y el Instituto Weizmann de Ciencias presentaron un importante avance en la decodificación especulativa. La nueva técnica, presentada en la conferencia en Vancouver, Canadá, permite que cualquier modelo de «borrador» pequeño acelere cualquier modelo de lenguaje grande (LLM) independientemente de las diferencias de vocabulario. «Hemos resuelto una ineficiencia central en la IA generativa. Nuestra investigación muestra cómo convertir la aceleración especulativa en una herramienta universal. No se trata solo de una mejora teórica; estas son herramientas prácticas que ya están ayudando a los desarrolladores a crear aplicaciones más rápidas e inteligentes hoy en día», dijo Oren Pereg, investigador senior del Grupo de Procesamiento del Lenguaje Natural de Intel Labs.

La decodificación especulativa es una técnica de optimización de inferencia diseñada para hacer que los LLM sean más rápidos y eficientes sin comprometer la precisión. Funciona emparejando un modelo pequeño y rápido con uno más grande y preciso, creando un «esfuerzo de equipo» entre modelos. Considere la indicación de un modelo de IA: «¿Cuál es la capital de Francia…» Un LLM tradicional genera cada palabra paso a paso. Calcula completamente «París», luego «a», luego «famoso», luego «ciudad» y así sucesivamente, consumiendo recursos significativos en cada paso. Con la decodificación especulativa, el pequeño modelo asistente redacta rápidamente la frase completa «París, una ciudad famosa…» A continuación, el modelo grande verifica la secuencia. Esto reduce drásticamente los ciclos de proceso por token de salida.

Por qué es importante: Este método universal de Intel y el Instituto Weizmann elimina las limitaciones de los vocabularios compartidos o las familias de modelos entrenados conjuntamente, lo que hace que la decodificación especulativa sea práctica en modelos heterogéneos. Ofrece ganancias de rendimiento de inferencia hasta 2,8 veces más rápidas sin pérdida de calidad de salida. También funciona en modelos de diferentes desarrolladores y ecosistemas, lo que lo hace independiente del proveedor; está listo para código abierto a través de la integración con la biblioteca Hugging Face Transformers.

En un panorama de IA fragmentado, este avance de decodificación especulativa promueve la apertura, la interoperabilidad y la implementación rentable desde la nube hasta el borde. Los desarrolladores, las empresas y los investigadores ahora pueden mezclar y combinar modelos para adaptarse a sus necesidades de rendimiento y restricciones de hardware». Este trabajo elimina una importante barrera técnica para hacer que la IA generativa sea más rápida y barata», dijo Nadav Timor, estudiante de doctorado en el grupo de investigación del profesor David Harel en el Instituto Weizmann. «Nuestros algoritmos desbloquean aceleraciones de última generación que anteriormente solo estaban disponibles para organizaciones que entrenan sus propios modelos de borrador pequeños».

El trabajo de investigación presenta tres nuevos algoritmos que desacoplan la codificación especulativa de la alineación del vocabulario. Esto abre la puerta a una implementación flexible de LLM en la que los desarrolladores emparejan cualquier modelo de borrador pequeño con cualquier modelo grande para optimizar la velocidad y el costo de la inferencia en todas las plataformas.

La investigación no es solo teórica. Los algoritmos ya están integrados en la biblioteca de código abierto Hugging Face Transformers utilizada por millones de desarrolladores. Con esta integración, la aceleración avanzada de LLM está disponible de forma inmediata sin necesidad de código personalizado.

PEACEMAKER regresa a Max el 21 de agosto
Intel XeSS 2 ya está disponible en más juegos
Lenovo IdeaPad Slim 3 es el regalo perfecto para el día del padre
Samsung Galaxy S25 Edge será anunciado el día de hoy
InterNexa revela el aumento de volumen de datos en el Cambio
ETIQUETADO:aprendizaje automáticoDavid HarelHugging Face TransformersIAInstituto Weizmann de CienciasintelIntel LabsInteligencia ArtificialLLMWeizmann
Comparte este artículo
Facebook Copiar enlace
Compartir
Artículo anterior AMD anuncia los nuevos Threadripper PRO 9000 WX-Series AMD anuncia los nuevos Threadripper PRO 9000 WX-Series
Siguiente Artículo La colección Razer | Pokémon llegará pronto a América Latina La colección Razer | Pokémon llegará pronto a América Latina
- Publicidad -
Ad imageAd image

Síguenos

FacebookSeguir Fb
XSeguir
InstagramSeguir
YouTubeSuscríbete
TikTokSeguir
LinkedInSeguir

Últimas noticias

Competencias que necesitan los partners IT para sobresalir en el mercado
Competencias que necesitan los partners IT para sobresalir en el mercado
Noticias Tecnología
Kia Colombia anuncia un acuerdo promocional con Disney+
Kia Colombia anuncia un acuerdo promocional con Disney+
Entretenimiento Noticias Tecnología
Epson estuvo presente en ExpoTextil Perú 2025
Epson estuvo presente en ExpoTextil Perú 2025
Noticias Tecnología
El robot SRT-H lleva la IA a los quirófanos
El robot SRT-H lleva la IA a los quirófanos
Noticias Tecnología

Te puede interesar...

NoticiasTecnología

TCL gana el premio «Mejor Smart TV» en los Premios Perusmart

Carlos Cantor
Carlos Cantor
2 Min en Leer
Noticias

Godzilla y Kong llegan a Fortnite

Carlos Cantor
Carlos Cantor
11 Min en Leer
BIOSTAR presenta la placa base B850MT2-E DJ
NoticiasPC

BIOSTAR presenta la placa base B850MT2-E DJ

Carlos Cantor
Carlos Cantor
4 Min en Leer
//

Somos el portal donde obtendrás las novedades sobre tecnología y entretenimiento digital

Enlaces Rápido

  • Contacto
  • Blog
  • Publicidad

Soporte

  • Términos y Condiciones
  • Política de cookies
  • Política de Privacidad

Suscríbete a nuestro boletín

Suscríbase a nuestro boletín para recibir nuestros artículos más recientes.

MastekHwMastekHw
Síguenos
© 2018 MastekHw Service International. LLc. Todos los derechos reservados.
adbanner
Bienvenido de nuevo!

Accede a tu cuenta

Usuario o Email
Contraseña

¿Ha perdido su contraseña?