Así es Ironwood: el nuevo cerebro de Google para grandes modelos

Sarah Jerez

, INTERNET

Durante el evento Cloud Next 25, Google anunció Ironwood, su séptima generación de Unidades de Procesamiento Tensorial. Esta versión fue diseñada para potenciar modelos avanzados de inferencia con alto consumo de cómputo. 

Ironwood se enfoca en modelos complejos como los LLM (modelo de lenguaje grande) y MoE (Mixture of Experts), con un enfoque en minimizar la latencia y escalar de manera eficiente. El sistema puede alcanzar configuraciones de hasta 9216 chips, conectados por una red especializada.

Según la compañía, esta nueva TPU ofrece mejoras sustanciales frente a generaciones anteriores, tanto en rendimiento por vatio como en capacidad de memoria. 

TE PUEDE INTERESAR: WordPress ofrece un nuevo creador de sitios web con IA: así funciona 

Características de Ironwood

  • Cada chip alcanza un pico de cómputo de 4614 TFLOP.
  • Soporta configuraciones de 256 a 9216 chips por pod (unidad lógica o física que agrupa varios recursos de cómputo).
  • Ofrece un total de hasta 42,5 exaflops por pod.
  • Refrigeración líquida para mantener el rendimiento sostenido.
  • Hasta 30 veces más eficiencia energética que la TPU Cloud de 2018.
  • Doble de rendimiento por vatio en comparación con Trillium.
  • 192 GB de memoria HBM por chip, seis veces más que la generación anterior.
  • 7,2 TBps de ancho de banda de memoria por chip.
  • Interconexión entre chips de 1,2 Tbps bidireccional.
  • Incluye un SparseCore mejorado para incrustaciones ultragrandes.
  • Optimizado para modelos LLM, MoE y tareas de razonamiento.
  • Reduce la latencia y el movimiento de datos en el chip.
  • Integración con Pathways para distribución entre miles de chips.
  • Diseñada para cargas de trabajo de entrenamiento e inferencia.

Foto: Google blog.

Deja una respuesta