Nvidia acaba de presentar Rubin, una plataforma de supercomputación diseñada para transformar el desarrollo y despliegue de modelos avanzados de inteligencia artificial (IA). Según anunciaron en CES 2026, esta tecnología promete reducir los costos asociados a la creación de modelos de lenguaje grandes (LLMs) y hacer que estas herramientas sean más accesibles para el público general.
La clave detrás de Rubin está en su diseño integrado. Nvidia ha desarrollado un sistema compuesto por seis chips especializados, incluyendo una CPU Vera personalizada con 88 núcleos Olympus y un GPU Rubin potente que ofrece hasta 50 petaflops de capacidad computacional.
Además, utiliza tecnologías como NVLink 6 Switch para conectar los componentes y optimizar la comunicación entre ellos. Este diseño permite reducir los costos de procesamiento de tokens en un 10x y necesitar cuatro veces menos tarjetas gráficas para entrenar modelos complejos, comparado con plataformas anteriores como Blackwell.
TE PUEDE INTERESAR: Ford apuesta por la conducción autónoma con IA y BlueCruise más accesible
Qué debes saber
- Rubin reduce los costos de procesamiento de tokens en un 10x.
- Requiere cuatro veces menos GPUs para entrenar modelos avanzados.
- Incluye una CPU Vera con 88 núcleos Olympus y compatibilidad completa con Armv9.2.
- El GPU Rubin ofrece hasta 50 petaflops de capacidad computacional.
- La empresa asegura que este avance podría marcar un antes y un después en la adopción masiva de la IA.
- Aunque no estará disponible para el consumidor común, esta innovación llegará primero a socios estratégicos como Amazon Web Services, Google Cloud y Microsoft en la segunda mitad de 2026.
Especificaciones técnicas
- CPU: Nvidia Vera con 88 núcleos Olympus y conectividad NVLink-C2C.
- GPU: Nvidia Rubin con motor Transform Engine de tercera generación.
- Conectividad: NVLink 6 Switch para comunicación GPU a GPU.
- Redes: Nvidia ConnectX-9 SuperNIC para alta velocidad.
- Procesamiento auxiliar: Bluefield-4 DPU para descargar trabajo del CPU y GPU.
Contenido generado con IA y editado por el equipo editorial.
Foto: Nvidia.
