Adiós a la latencia: Rockwell integra los "Small Language Models" de NVIDIA directamente en la maquinaria industrial
La dependencia exclusiva de la nube para procesar Inteligencia Artificial tiene los días contados en la planta de producción. Rockwell Automation y NVIDIA acaban de presentar una solución para ejecutar “Small Language Models” directamente en la maquinaria, un hito que redefinirá las arquitecturas de control en 2026.
La industria manufacturera lleva dos años explorando la Inteligencia Artificial Generativa, pero siempre con un freno de mano puesto: la necesidad de enviar datos sensibles a la nube para su procesamiento. Esto generaba problemas de latencia, costes de ancho de banda y, sobre todo, riesgos de ciberseguridad y soberanía del dato que desde la ingeniería de campo conocemos bien.
Este mes de noviembre, durante la Automation Fair 2025 en Chicago, Rockwell Automation y NVIDIA han confirmado una colaboración que promete eliminar esa barrera.
El fin de la latencia: Llega Nemotron Nano
El núcleo de esta noticia es la adopción del modelo NVIDIA Nemotron-Nano-9B-v2. A diferencia de los grandes modelos de lenguaje (LLMs) como GPT-4, que requieren centros de datos masivos, los SLMs (Small Language Models) están optimizados para ejecutarse en hardware local con recursos limitados, pero manteniendo una alta capacidad de razonamiento.
Joey Conway, director de software de IA en NVIDIA, ha definido este avance como la capacidad de “extender la inteligencia desde los centros de datos hasta el corazón de las operaciones físicas”.
¿Qué implica esto para su fábrica?
Para los directivos de planta y responsables de digitalización, mover la IA al Edge (al borde) ofrece tres ventajas competitivas inmediatas que alinean perfectamente con la filosofía de robustez técnica que defendemos en Proyingel:
1. Privacidad Absoluta
Los datos de producción, fórmulas propietarias y telemetría sensible nunca salen del recinto de la fábrica. El procesamiento es 100% local (on-premise), eliminando vectores de ataque externos y cumpliendo con las normativas más estrictas de protección de datos industriales.
2. Operativa en Tiempo Real
Al eliminar el viaje de ida y vuelta a la nube, las respuestas de la IA son casi instantáneas (milisegundos). Esto permite, por fin, utilizar inferencia de IA en bucles de control críticos donde el determinismo es rey.
3. Resiliencia y Disponibilidad
El sistema sigue funcionando plenamente incluso si la conexión a internet de la planta se interrumpe. La inteligencia reside en la máquina, no en el servidor remoto.
La IA en el Edge permite que la fábrica siga pensando incluso cuando la red deja de responder.
Aplicación práctica: FactoryTalk Design Studio
Rockwell no se ha limitado a un anuncio teórico. La compañía ya está integrando esta capacidad en su plataforma FactoryTalk Design Studio. Gracias a estos modelos locales, los ingenieros de automatización ahora pueden utilizar un “Copiloto” que funciona sin conexión para:
- Generar código de control para PLCs mediante lenguaje natural.
- Depurar errores en tiempo real conversando con el sistema.
- Consultar documentación técnica y diagnósticos sin salir del entorno de programación.
Análisis Técnico: El cambio de tendencia para 2026
Este movimiento señala un cambio de paradigma claro. Mientras que la nube seguirá siendo el lugar para el análisis de Big Data histórico y el entrenamiento de modelos masivos, la ejecución (inferencia) se traslada decididamente al borde.
Las empresas industriales deben empezar a evaluar si su infraestructura actual de PCs industriales y servidores de planta está preparada para alojar estos nuevos modelos de IA, o si será necesario planificar actualizaciones de hardware hacia equipos con capacidades de procesamiento neuronal (NPU/GPU).
Si quieres saber si tu infraestructura actual soporta la implementación de IA local o necesitas auditoría sobre tus redes OT, te invitamos a Contactar con nuestra oficina técnica.
El futuro es inteligente, pero sobre todo, es local.