
Lima, 04 de Agosto del 2025.- Esta semana, el RTX AI Garage muestra cómo entusiastas de la inteligencia artificial están utilizando aplicaciones populares como Langflow, una plataforma visual de bajo código para diseñar flujos de trabajo personalizados con IA para encadenar modelos generativos.
Y ahora, gracias a la integración nativa con Ollama, los usuarios pueden crear flujos de trabajo de IA locales y ejecutarlos sin costo alguno y con total privacidad, aprovechando el poder de las GPU NVIDIA GeForce RTX y RTX PRO.
Langflow puede ejecutar modelos tanto desde la nube como de forma local, con aceleración completa para GPUs RTX a través de Ollama. Ejecutar flujos de trabajo de manera local ofrece varios beneficios:
Ahora también es posible controlar PCs con RTX AI usando Project G-Assist dentro de Langflow.
NVIDIA Project G-Assist, el asistente de IA experimental que se ejecuta localmente en PCs con GeForce RTX, permite consultar información del sistema, ajustar configuraciones y mucho más, todo mediante comandos en lenguaje natural.
Con el componente de G-Assist en Langflow, estas funciones se pueden integrar en flujos de trabajo personalizados. Por ejemplo, puedes pedirle que “revise la temperatura de la GPU” o que “ajuste la velocidad de los ventiladores” y sus respuestas y acciones se integrarán automáticamente a la cadena de procesos.
Además RTX Remix añade el protocolo Model Context, abriendo la puerta a mods con agentes inteligentes.