RTX AI Garage muestra cómo entusiastas de la inteligencia artificial están utilizando aplicaciones populares como Langflow, una plataforma visual de bajo código para diseñar flujos de trabajo personalizados con IA para encadenar modelos generativos.
Y ahora, gracias a la integración nativa con Ollama, los usuarios pueden crear flujos de trabajo de IA locales y ejecutarlos sin costo alguno y con total privacidad, aprovechando el poder de las GPU NVIDIA GeForce RTX y RTX PRO.
Langflowpuede ejecutar modelos tanto desde la nube como de forma local, con aceleración completa para GPUs RTX a través de Ollama. Ejecutar flujos de trabajo de manera local ofrece varios beneficios:
- Privacidad de datos: Los archivos, entradas y prompts permanecen en tu dispositivo.
- Sin costos ni llaves API: Al no depender de servicios en la nube, no hay restricciones por tokens, suscripciones ni pagos para ejecutar los modelos.
- Alto rendimiento: Las GPUs RTX permiten inferencias rápidas y eficientes, incluso con ventanas de contexto largas.
- Funcionalidad sin conexión: Puedes usar flujos de IA sin necesidad de estar conectado a internet.
Ahora también es posible controlar PCs con RTX AI usando Project G-Assist dentro de Langflow.
NVIDIA Project G-Assist, el asistente de IA experimental que se ejecuta localmente en PCs con GeForce RTX, permite consultar información del sistema, ajustar configuraciones y mucho más, todo mediante comandos en lenguaje natural.
Con el componente de G-Assist en Langflow, estas funciones se pueden integrar en flujos de trabajo personalizados. Por ejemplo, puedes pedirle que “revise la temperatura de la GPU” o que “ajuste la velocidad de los ventiladores” y sus respuestas y acciones se integrarán automáticamente a la cadena de procesos.
Además RTX Remix añade el protocolo Model Context, abriendo la puerta a mods con agentes inteligentes.