El gigante tecnológico anunció el lanzamiento de Maia 200, un nuevo chip diseñado para escalar inferencia de inteligencia artificial con mayor velocidad y eficiencia energética, apuntando a reducir costos operativos y ampliar su infraestructura propia de cómputo, esto en el marco de la competencia con Nvidia en el campo del hardware para IA.
***
- Maia 200 integra más de 100.000 millones de transistores y ofrece más de 10 petaflops en precisión de 4 bits.
- Microsoft afirma que el chip supera a alternativas como Trainium y TPU en métricas FP4 y FP8, según su propio comunicado.
- La compañía dice que ya usa Maia 200 en su división de Superintelligence y para impulsar Copilot, y abrió su kit de desarrollo a terceros.
🚀 Microsoft lanza Maia 200, su nuevo chip para IA.
Con más de 100,000 millones de transistores, ofrece más de 10 petaflops de rendimiento.
Diseñado para optimizar la inferencia de modelos de IA con menor costo y mayor eficiencia energética.
Ya se implementa en… pic.twitter.com/wpf4o2TirH
— Diario฿itcoin (@DiarioBitcoin) January 26, 2026
Microsoft anunció el lanzamiento de su nuevo chip, Maia 200, el cual describe como un “caballo de batalla de silicio” diseñado para escalar la inferencia de inteligencia artificial. La compañía presentó este nuevo hardware como una pieza clave para ejecutar modelos avanzados de forma más rápida y con un consumo energético menor.
El chip Maia 200 llega como sucesor del Maia 100, lanzado por Microsoft en 2023. De acuerdo con la empresa, el nuevo procesador fue equipado técnicamente para correr modelos potentes de IA con mayor eficiencia, en respuesta a la creciente presión sobre costos e infraestructura en el sector, reseña TechCrunch.
Maia 200 entra a la competencia en el campo del hardware para la IA
Entre sus especificaciones, Microsoft indicó que Maia 200 incluye más de 100.000 millones de transistores. También afirmó que ofrece más de 10 petaflops en precisión de 4 bits y aproximadamente 5 petaflops de rendimiento en 8 bits, un salto considerable frente a su generación anterior.
La inferencia se refiere al proceso computacional de ejecutar un modelo ya entrenado. Esto contrasta con el cómputo necesario para entrenarlo, que suele requerir enormes recursos en etapas iniciales. Sin embargo, a medida que las compañías de IA maduran, el costo de inferencia se vuelve una parte cada vez más relevante de sus gastos operativos.
Ese cambio ha provocado un nuevo interés por optimizar la ejecución de modelos en producción. En términos prácticos, esto implica buscar chips y sistemas capaces de entregar más rendimiento por watt, sostener cargas más grandes y mantener estabilidad en servicios que funcionan de manera continua.
Microsoft señaló que espera que Maia 200 sea parte de esa optimización. La empresa argumenta que la meta es permitir que los negocios basados en IA operen con menos interrupciones y un menor consumo energético, un punto que se ha vuelto central en la discusión sobre sostenibilidad y escalabilidad.
En su anuncio, Microsoft afirmó: “En términos prácticos, un nodo Maia 200 puede ejecutar sin esfuerzo los modelos más grandes de hoy, con suficiente margen para modelos aún más grandes en el futuro”. La compañía utilizó esta idea para posicionar a Maia 200 como una apuesta de largo plazo para cargas crecientes de inferencia.
Empresas optan por diseñar sus propios chips
El lanzamiento también se enmarca en una tendencia creciente: los grandes actores tecnológicos están diseñando sus propios chips para disminuir su dependencia de Nvidia. Las GPUs de esta última se han convertido en componentes esenciales para el auge de la IA moderna, lo que les ha dado un rol central en la industria.
Google, por ejemplo, cuenta con sus TPU (Tensor Processing Units). Según lo expuesto en la publicación, estos chips no se venden como hardware independiente, sino como potencia de cómputo disponible a través de su nube, lo que permite a clientes ejecutar cargas sin recurrir exclusivamente a GPUs de Nvidia.
Amazon también ha desarrollado su propia línea, Trainium, un acelerador de IA creado por la compañía de comercio electrónico. El texto señala que la versión más reciente, Trainium3, se lanzó en diciembre, reforzando la competencia en hardware especializado para IA.
En cada caso, la idea es similar: descargar parte del cómputo que normalmente recaería sobre las GPUs de Nvidia. Esto ayuda a reducir el costo total de hardware, diversificar proveedores y mejorar el control sobre el rendimiento en centros de datos propios.
Con Maia, Microsoft busca posicionarse como competidor directo de estas alternativas. En su comunicado del lunes, la empresa sostuvo que Maia 200 entrega tres veces el rendimiento FP4 de los chips Amazon Trainium de tercera generación, y un desempeño FP8 superior al de la séptima generación de TPU de Google.
Los planes de Microsoft
Estas comparaciones forman parte del enfoque competitivo del anuncio. Microsoft plantea que Maia 200 no solo es un chip interno, sino también una propuesta tecnológica capaz de sostener cargas de inferencia a gran escala con métricas destacadas frente a rivales del mismo segmento.
Microsoft aseguró que Maia 200 ya está trabajando en la operación de los modelos de IA de su equipo de Superintelligence. También indicó que el chip ha estado apoyando el funcionamiento de Copilot, su chatbot, lo que sugiere un despliegue activo dentro de sus principales productos.
Además, la compañía afirmó que invitó a diversas partes interesadas a utilizar el kit de desarrollo de software de Maia 200 en sus cargas de trabajo. Según el texto, entre los invitados se incluyen desarrolladores, académicos y laboratorios de IA de frontera, ampliando el acceso a esta plataforma.
Ese movimiento muestra que Microsoft busca impulsar un ecosistema alrededor de Maia, no solo mantenerlo como un componente cerrado. Al abrir el SDK a distintos perfiles, la empresa podría captar retroalimentación técnica, validar rendimiento en entornos reales y facilitar una adopción más amplia.
Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Bitwise entra a DeFi con bóvedas en Morpho y apunta a hasta 6% de rendimientos en USDC
BlackRock presenta solicitud ante la SEC para ETF Bitcoin que genera ingresos con opciones
Vaneck lanza el primer ETF de Avalanche en EEUU con recompensas por staking