Google anuncia la disponibilidad de Ironwood, su chip de inteligencia artificial más potente para competir con Nvidia
La séptima generación de TPU multiplica por diez el rendimiento de su predecesora y estará disponible en las próximas semanas
Anthropic, creadora de Claude, que compite directamente con ChatGPT, planea utilizar hasta un millón de TPU Ironwood
La matriz de Snapchat anuncia un acuerdo de IA con Perplexity por 400 millones de dólares
Google Cloud ha anunciado la disponibilidad general de Ironwood, su unidad de procesamiento tensorial (TPU) de séptima generación, junto con nuevas máquinas virtuales basadas en procesadores Axion Arm.
Este lanzamiento supone la apuesta más ambiciosa de la compañía tecnológica por liderar el mercado de infraestructuras para inteligencia artificial, dominado actualmente por Nvidia, y responde a la creciente demanda de procesamiento para modelos de IA cada vez más complejos.
Un salto de rendimiento para entrenar y ejecutar modelos de IA
Ironwood supone un avance significativo en capacidad de procesamiento.
Según el anuncio firmado por Amin Vahdat y Mark Lohmeyer, vicepresidentes de Google Cloud, este nuevo chip ofrece una mejora de rendimiento pico de 10 veces respecto a la TPU v5p y más de cuatro veces mejor rendimiento por chip en comparación con la TPU v6e (Trillium) tanto para entrenamiento como para inferencia.
Qué es la inferencia y por qué es importante
La inferencia -el proceso mediante el cual un modelo de IA ya entrenado responde a consultas y genera contenido- se ha convertido en el eje central del negocio tecnológico actual.
Mientras que el entrenamiento de modelos requiere enormes recursos computacionales durante períodos concentrados, la inferencia debe ejecutarse millones de veces al día con baja latencia para atender a usuarios finales.
Es en este escenario donde Google sitúa a Ironwood como su solución más eficiente.
Infraestructura a escala planetaria
La arquitectura de Ironwood permite conectar hasta 9.216 chips en un superpod, funcionando como una única unidad de cálculo.
Esta configuración, según Google, proporciona acceso a 1,77 petabytes de memoria compartida de alto ancho de banda (HBM) y elimina los cuellos de botella de datos incluso en los modelos más exigentes.
El sistema incorpora tecnología de conmutación de circuitos ópticos (OCS) que actúa como una red reconfigurable capaz de redirigir automáticamente el tráfico de datos ante interrupciones, manteniendo los servicios operativos sin tiempo de inactividad.
La interconexión entre chips (ICI) alcanza velocidades de 9,6 terabits por segundo.
Estos superpods pueden escalarse a clústeres de cientos de miles de TPU, una capacidad que Google ha venido perfeccionando con su arquitectura de refrigeración líquida avanzada, desplegada a escala de gigavatios con un tiempo de actividad del 99,999% desde 2020, según datos de la compañía.
Anthropic utilizará hasta un millón de TPU
La empresa Anthropic, creadora del modelo de lenguaje Claude que compite directamente con ChatGPT, ha confirmado que planea utilizar hasta un millón de TPU Ironwood.
James Bradbury, responsable de cómputo de Anthropic, declaró que "las mejoras de Ironwood tanto en rendimiento de inferencia como en escalabilidad de entrenamiento nos ayudarán a escalar eficientemente manteniendo la velocidad y fiabilidad que nuestros clientes esperan".
Esta alianza ilustra la intensidad de la competencia en el sector: mientras Google desarrolla la infraestructura, empresas como Anthropic -que cuenta con inversión de Amazon- necesitan acceso a recursos computacionales masivos para mantener sus servicios.
Axion: procesadores Arm para complementar la IA
Junto a Ironwood, Google ha presentado dos nuevas instancias de máquinas virtuales basadas en Axion, su procesador personalizado con arquitectura Arm Neoverse.
La instancia N4A, disponible en versión preliminar, ofrece hasta el doble de rendimiento por precio en comparación con máquinas virtuales basadas en procesadores x86 de generación actual.
También se ha anunciado C4A metal, la primera instancia bare-metal (servidor físico dedicado) basada en Arm de Google, destinada a cargas de trabajo especializadas como desarrollo de aplicaciones Android, sistemas para automóviles o granjas de pruebas a escala.
Estos procesadores de propósito general complementan a las TPU manejando tareas operativas como la preparación de datos, ingesta de información y ejecución de servidores de aplicaciones que dan soporte a sistemas de IA, pero no requieren aceleración especializada.
La batalla por el silicio personalizado
El anuncio de Google se produce en un contexto de intensa competencia entre las grandes tecnológicas por desarrollar chips propios.
Microsoft, Amazon y Meta han lanzado iniciativas similares buscando reducir su dependencia de Nvidia, cuyas unidades de procesamiento gráfico (GPU) han dominado el mercado de IA.
Según un informe reciente de IDC citado por Google, los clientes del sistema AI Hypercomputer -que integra TPU, redes, almacenamiento y software- alcanzaron un retorno de inversión medio del 353% a tres años, una reducción del 28% en costes de TI y equipos un 55% más eficientes.
La ventaja del silicio personalizado radica en la optimización vertical: al diseñar conjuntamente hardware, software y, en el caso de Google, los propios modelos de IA bajo el mismo techo corporativo, la compañía asegura poder ofrecer mejoras de rendimiento que no serían posibles con componentes genéricos.
Esta filosofía, según Google, fue la que permitió crear la primera TPU hace diez años y, posteriormente, el desarrollo de la arquitectura Transformer hace ocho años, base de la IA generativa actual.
La disponibilidad general de Ironwood está prevista para las próximas semanas a través de Google Cloud.
Temas relacionados
No hay comentarios