Al utilizar este sitio, acepta la Política de privacidad y Terms y Condiciones.
Aceptar
MastekHwMastekHwMastekHw
  • Noticias
  • Tecnología
    Tecnología
    Todas las noticias más importantes de la tecnología la encuentras aquí en MastekHw, Categoría Tecnología, noticias, lanzamientos, entrevistas y más.
    Ver más
    Noticias Destacadas
    Vertiv anuncia la compra de Purge Rite
    Vertiv anuncia la compra de Purge Rite
    hace 3 meses
    Jensen Huang dará el keynote de apertura de GTC 2025
    Jensen Huang dará el keynote de apertura de GTC 2025
    hace 11 meses
    LG y Matumbé para poner a prueba los parlantes xboom
    LG y Matumbé para poner a prueba los parlantes xboom
    hace 3 meses
    Últimas Noticias
    Samsung entrega más detalles sobre el SSD PM9E1 NVMe
    hace 11 horas
    Kaspersky Security Bulletin alerta a la industria del entretenimiento en 2026
    hace 2 días
    El sonido como aliado en este regreso a clases
    hace 2 días
    Conoce la razón principal por la que los colombianos abandonan compras online
    hace 2 días
  • Móviles
    MóvilesVer más
    ¿Conoces la Serie HONOR Magic?: Evolución en resistencia y batería
    4 Min en Leer
    Infinix anunció oficialmente una alianza con MCR Agency
    Infinix anunció oficialmente una alianza con MCR Agency
    2 Min en Leer
    realme anuncia la batería Titan de 10.001 mAh
    realme anuncia la batería Titan de 10.001 mAh
    2 Min en Leer
    TECNO redefine el uso de “AI on the go”
    TECNO redefine el uso de “AI on the go”
    6 Min en Leer
    Infinix gana varios premios «Best of CES 2026»
    Infinix gana varios premios «Best of CES 2026»
    3 Min en Leer
  • PC
  • Gaming
  • Reviews
  • Guardados
  • Contacto
Buscar
  • Contacto
  • Blog
  • Publicidad
© 2018 MastekHw Service International. LLc. Todos los derechos reservados.
Leyendo: Intel y el Instituto Weizmann presentan avances en decodificación especulativa
Compartir
Notificación
Tamaño TextoAa
MastekHwMastekHw
Tamaño TextoAa
  • Noticias
  • Tecnología
  • Móviles
Buscar
  • Categorias
    • Noticias
    • Tecnología
    • PC
    • Móviles
    • Entretenimiento
    • Gaming
    • Reviews
Síguenos
  • Contacto
  • Blog
  • Publicidad
© 2018 MastekHw Service International. LLc. Todos los derechos reservados.
MastekHw > Noticias > Noticias > Intel y el Instituto Weizmann presentan avances en decodificación especulativa
NoticiasTecnología

Intel y el Instituto Weizmann presentan avances en decodificación especulativa

Carlos Cantor
Última actualización: julio 17, 2025 5:43 pm
Carlos Cantor
Compartir
Intel y el Instituto Weizmann presentan avances en decodificación especulativa
Compartir

En la Conferencia Internacional sobre Aprendizaje Automático (ICML), investigadores de Intel Labs y el Instituto Weizmann de Ciencias presentaron un importante avance en la decodificación especulativa. La nueva técnica, presentada en la conferencia en Vancouver, Canadá, permite que cualquier modelo de «borrador» pequeño acelere cualquier modelo de lenguaje grande (LLM) independientemente de las diferencias de vocabulario. «Hemos resuelto una ineficiencia central en la IA generativa. Nuestra investigación muestra cómo convertir la aceleración especulativa en una herramienta universal. No se trata solo de una mejora teórica; estas son herramientas prácticas que ya están ayudando a los desarrolladores a crear aplicaciones más rápidas e inteligentes hoy en día», dijo Oren Pereg, investigador senior del Grupo de Procesamiento del Lenguaje Natural de Intel Labs.

La decodificación especulativa es una técnica de optimización de inferencia diseñada para hacer que los LLM sean más rápidos y eficientes sin comprometer la precisión. Funciona emparejando un modelo pequeño y rápido con uno más grande y preciso, creando un «esfuerzo de equipo» entre modelos. Considere la indicación de un modelo de IA: «¿Cuál es la capital de Francia…» Un LLM tradicional genera cada palabra paso a paso. Calcula completamente «París», luego «a», luego «famoso», luego «ciudad» y así sucesivamente, consumiendo recursos significativos en cada paso. Con la decodificación especulativa, el pequeño modelo asistente redacta rápidamente la frase completa «París, una ciudad famosa…» A continuación, el modelo grande verifica la secuencia. Esto reduce drásticamente los ciclos de proceso por token de salida.

Por qué es importante: Este método universal de Intel y el Instituto Weizmann elimina las limitaciones de los vocabularios compartidos o las familias de modelos entrenados conjuntamente, lo que hace que la decodificación especulativa sea práctica en modelos heterogéneos. Ofrece ganancias de rendimiento de inferencia hasta 2,8 veces más rápidas sin pérdida de calidad de salida. También funciona en modelos de diferentes desarrolladores y ecosistemas, lo que lo hace independiente del proveedor; está listo para código abierto a través de la integración con la biblioteca Hugging Face Transformers.

En un panorama de IA fragmentado, este avance de decodificación especulativa promueve la apertura, la interoperabilidad y la implementación rentable desde la nube hasta el borde. Los desarrolladores, las empresas y los investigadores ahora pueden mezclar y combinar modelos para adaptarse a sus necesidades de rendimiento y restricciones de hardware». Este trabajo elimina una importante barrera técnica para hacer que la IA generativa sea más rápida y barata», dijo Nadav Timor, estudiante de doctorado en el grupo de investigación del profesor David Harel en el Instituto Weizmann. «Nuestros algoritmos desbloquean aceleraciones de última generación que anteriormente solo estaban disponibles para organizaciones que entrenan sus propios modelos de borrador pequeños».

El trabajo de investigación presenta tres nuevos algoritmos que desacoplan la codificación especulativa de la alineación del vocabulario. Esto abre la puerta a una implementación flexible de LLM en la que los desarrolladores emparejan cualquier modelo de borrador pequeño con cualquier modelo grande para optimizar la velocidad y el costo de la inferencia en todas las plataformas.

La investigación no es solo teórica. Los algoritmos ya están integrados en la biblioteca de código abierto Hugging Face Transformers utilizada por millones de desarrolladores. Con esta integración, la aceleración avanzada de LLM está disponible de forma inmediata sin necesidad de código personalizado.

BIWIN anuncia el SSD Acer FA200
Cabify financiará proyectos productivos en la Amazonía
Apple anuncia 500.000 millones de dólares de inversión en Estados Unidos
HONOR Magic7 Lite es perfecto como herramienta de trabajo
Daredevil: Born Again marca el regreso de Charlie Cox 10 años después al MCU
ETIQUETADO:aprendizaje automáticoDavid HarelHugging Face TransformersIAInstituto Weizmann de CienciasintelIntel LabsInteligencia ArtificialLLMWeizmann
Comparte este artículo
Facebook Copiar enlace
Compartir
Artículo anterior AMD anuncia los nuevos Threadripper PRO 9000 WX-Series AMD anuncia los nuevos Threadripper PRO 9000 WX-Series
Siguiente Artículo La colección Razer | Pokémon llegará pronto a América Latina La colección Razer | Pokémon llegará pronto a América Latina
- Publicidad -
Ad imageAd image

Síguenos

FacebookSeguir Fb
XSeguir
InstagramSeguir
YouTubeSuscríbete
TikTokSeguir
LinkedInSeguir

Últimas noticias

GALLEON 100 SD ya está siendo distribuido a nivel mundial
GALLEON 100 SD ya está siendo distribuido a nivel mundial
Noticias PC
Samsung entrega más detalles sobre el SSD PM9E1 NVMe
Samsung entrega más detalles sobre el SSD PM9E1 NVMe
Noticias Tecnología
Kaspersky Security Bulletin alerta a la industria del entretenimiento en 2026
Kaspersky Security Bulletin alerta a la industria del entretenimiento en 2026
Noticias Tecnología
El sonido como aliado en este regreso a clases
El sonido como aliado en este regreso a clases
Noticias Tecnología

Te puede interesar...

HubSpot lanza en Colombia programa con apoyo de UCompensar
NoticiasTecnología

HubSpot lanza en Colombia programa con apoyo de UCompensar

Carlos Cantor
Carlos Cantor
5 Min en Leer
Reactivación: Batalla Remix llega el 14 de mayo a Teamfight Tactics
NoticiasTecnología

Reactivación: Batalla Remix llega el 14 de mayo a Teamfight Tactics

Carlos Cantor
Carlos Cantor
4 Min en Leer
UCompensar apuesta por la IA contra el cáncer de mama
NoticiasTecnología

UCompensar apuesta por la IA contra el cáncer de mama

Carlos Cantor
Carlos Cantor
6 Min en Leer
//

Somos el portal donde obtendrás las novedades sobre tecnología y entretenimiento digital

Enlaces Rápido

  • Contacto
  • Blog
  • Publicidad

Soporte

  • Términos y Condiciones
  • Política de cookies
  • Política de Privacidad

Suscríbete a nuestro boletín

Suscríbase a nuestro boletín para recibir nuestros artículos más recientes.

MastekHwMastekHw
Síguenos
© 2018 MastekHw Service International. LLc. Todos los derechos reservados.
adbanner
Bienvenido de nuevo!

Accede a tu cuenta

Usuario o Email
Contraseña

¿Ha perdido su contraseña?