Microsoft lanza Maia 200 para competir con Nvidia en la batalla por los chips de inteligencia artificial
La compañía se suma a Google y Amazon en el desarrollo de procesadores propios para mejorar la eficiencia y el control de su infraestructura de Azure en la nube
La UE designa a WhatsApp como plataforma de muy gran tamaño y activa las obligaciones reforzadas de la Ley de Servicios Digitales
Microsoft ha presentado Maia 200, la segunda generación de su chip propio de inteligencia artificial, un procesador con el que busca reforzar su posición en la carrera global por el control de la infraestructura de IA y reducir su dependencia de Nvidia, dominante en este mercado.
El anuncio sitúa a la compañía en competencia directa con otros grandes proveedores de nube, como Google y Amazon, que en los últimos años también han desarrollado sus propios procesadores especializados para cargas de trabajo de inteligencia artificial.
Despliegue progresivo
El nuevo chip llega dos años después de Maia 100, la primera incursión de Microsoft en este terreno. A diferencia de aquella versión inicial, que no llegó a ponerse a disposición de los clientes, Maia 200 sí se está desplegando ya en centros de datos de Azure en Estados Unidos y servirá para impulsar algunos de los servicios estratégicos de la compañía.
Según ha explicado en un comunicado Scott Guthrie, vicepresidente ejecutivo de Microsoft para la nube y la IA, es el "sistema de inferencia más eficiente que Microsoft ha desplegado jamás".
La inferencia, un elemento clave
La inferencia (generar respuestas a partir de modelos ya entrenados, como cuando ChatGPT responde a una pregunta) es precisamente el ámbito donde Microsoft quiere ganar eficiencia y reducir costes.
La compañía asegura que Maia 200 ofrece hasta un 30% más de rendimiento por dólar en comparación con el hardware que utiliza actualmente en su infraestructura, un dato crucial en un contexto de fuerte aumento del gasto en centros de datos y energía asociado al auge de la IA generativa.
En la práctica, significa que la compañía podría ejecutar más tareas de IA con el mismo presupuesto o reducir costes manteniendo la misma capacidad.
Una infraestructura heterogénea
Maia 200 ha sido diseñado específicamente para este tipo de tareas y forma parte de la estrategia de Microsoft de construir una infraestructura de IA "heterogénea", capaz de combinar distintos tipos de chips según las necesidades de cada servicio.
En este caso, el nuevo procesador dará soporte a productos como Microsoft 365 Copilot, Microsoft Foundry y los modelos más recientes de OpenAI, socio estratégico de la compañía, incluidos los últimos modelos GPT.
Características técnicas
Desde el punto de vista industrial, Taiwan Semiconductor Manufacturing Company (TSMC) ha fabricado el chip con su proceso de 3 nanómetros, una de las tecnologías de fabricación más avanzadas y diminutas del mercado actual.
Aunque el comunicado oficial detalla ampliamente sus capacidades técnicas, Microsoft subraya sobre todo su eficiencia y su integración con la infraestructura de Azure, más que las cifras brutas de potencia.
La empresa sostiene que este enfoque permite mejorar el rendimiento real de los modelos de IA en producción, un aspecto clave para los clientes empresariales.
Plan de despliegue
El despliegue inicial de Maia 200 se está llevando a cabo en la región central de Estados Unidos, cerca de Des Moines, en el estado de Iowa. En los próximos meses, la compañía prevé extenderlo a otros centros de datos, empezando por la región oeste del país, cerca de Phoenix, y posteriormente a más ubicaciones a nivel global.
Microsoft también ha anunciado una versión preliminar de su kit de desarrollo de software (SDK) para Maia 200, con el objetivo de facilitar a desarrolladores y empresas la adaptación de sus modelos a este nuevo hardware.
La batalla por la nube y la IA generativa
El anuncio se produce en un momento de intensa competencia entre los grandes proveedores de computación en la nube por controlar la base tecnológica de la inteligencia artificial generativa.
Nvidia sigue liderando el mercado de aceleradores de IA, pero Amazon, Google y Microsoft están invirtiendo miles de millones de dólares en el desarrollo de chips propios, con el doble objetivo de reducir costes y ganar independencia estratégica.
Amazon ha apostado por su familia de chips Trainium, mientras que Google lleva años utilizando sus TPU (Tensor Processing Units) para alimentar servicios como su buscador y sus modelos de IA.
Con Maia 200, Microsoft se suma de forma más decidida a esta carrera, reforzando su capacidad para diseñar sistemas completos que integran chip, red, software y centro de datos.
La compañía destaca que el desarrollo de Maia 200 ha seguido un enfoque integral, validando desde las primeras fases tanto el diseño del chip como su integración en los centros de datos, incluyendo sistemas avanzados de refrigeración líquida y herramientas de gestión y seguridad nativas de Azure.
Según Microsoft, este método ha permitido reducir de forma significativa el tiempo necesario para llevar el nuevo procesador desde el diseño inicial hasta su despliegue en producción.
Un programa a largo plazo
Más allá de esta generación concreta, la empresa deja claro que Maia es un programa a largo plazo. Microsoft asegura que ya trabaja en futuras versiones del chip y que su objetivo es establecer una hoja de ruta multigeneracional que marque nuevos estándares de eficiencia y rendimiento en la infraestructura de inteligencia artificial.
En un escenario en el que la IA se perfila como uno de los pilares tecnológicos de la próxima década, la capacidad de controlar el hardware sobre el que se ejecutan estos modelos se ha convertido en una ventaja estratégica de primer orden.
También te puede interesar
Lo último