Meta está acelerando el desarrollo de sus chips internos de inteligencia artificial y ya trazó una hoja de ruta con cuatro nuevas generaciones en dos años. La empresa busca reducir costos, optimizar cargas de trabajo específicas y disminuir su dependencia de Nvidia, mientras mantiene una estrategia multivendedor para sostener su creciente infraestructura de IA.
***
- Meta informó que ya utiliza cientos de miles de chips MTIA para tareas de inferencia en contenido orgánico y anuncios.
- La empresa desarrolla los MTIA 300, 400, 450 y 500, con mejoras en cómputo, memoria y eficiencia.
- Su estrategia combina iteración rápida, foco en inferencia y estándares abiertos como PyTorch, vLLM, Triton y OCP.
Meta está profundizando su apuesta por el desarrollo de chips internos de inteligencia artificial en momentos en que las grandes tecnológicas intentan reducir su dependencia de Nvidia. La empresa confirmó que comenzó a trabajar en Meta Training and Inference Accelerator, o MTIA, en 2023, y ahora prepara cuatro nuevas generaciones de procesadores para los próximos dos años.
El movimiento refleja una tendencia más amplia dentro de la industria. A medida que crecen las necesidades de cómputo para modelos de IA, también aumenta la presión por controlar costos, asegurar suministro y adaptar el hardware a cargas de trabajo concretas. En ese contexto, el diseño de silicio propio se ha convertido en una prioridad estratégica para varias compañías con grandes centros de datos.
Según explicó la compañía, sus chips están siendo desarrollados para tareas de clasificación, recomendaciones y GenAI en los productos de Meta. El objetivo no es reemplazar por completo a un solo proveedor, sino construir una infraestructura más flexible. Por eso, Meta dijo que seguirá comprando silicio de distintos actores de la industria mientras coloca a MTIA en el centro de su propio plan de IA.
La fuente original, Cryptopolitan, señala que la empresa describió esta visión como un “enfoque de cartera”. En la práctica, eso significa combinar chips externos con silicio interno en vez de confiar toda la pila tecnológica a un solo vendedor. La decisión también reconoce que ninguna pieza de hardware, por sí sola, puede cubrir toda la demanda operativa de Meta.
Meta acelera su hoja de ruta con cuatro generaciones de chips MTIA
Meta aseguró que ya utiliza cientos de miles de chips MTIA para trabajos de inferencia vinculados tanto a contenido orgánico como a anuncios dentro de sus aplicaciones. Ese dato da una idea del grado de adopción interna que ya alcanzó el proyecto y muestra que la iniciativa dejó de ser un experimento de laboratorio para integrarse en operaciones a gran escala.
La empresa subrayó que estos chips no fueron diseñados para uso general. Están construidos alrededor de las necesidades específicas de Meta, lo que los convierte en parte de una solución de pila completa personalizada. En otras palabras, la compañía no solo diseña el silicio, sino también el sistema donde ese hardware se integra y opera dentro de su infraestructura.
De acuerdo con Meta, esta configuración permite una mejor eficiencia de cómputo para sus casos de uso concretos y reduce costos frente a los chips de propósito general. Esa ventaja es relevante en una etapa en la que cada mejora en rendimiento o consumo energético puede traducirse en ahorros significativos cuando se opera a la escala de una empresa global con miles de millones de usuarios.
La siguiente etapa será una expansión más amplia. Meta indicó que está construyendo los MTIA 300, 400, 450 y 500, y que cada versión aportará mejoras en cómputo, ancho de banda de memoria y eficiencia. El MTIA 300 ya se encuentra en producción y estará a cargo del entrenamiento para clasificación y recomendaciones.
En cuanto a los modelos MTIA 400, 450 y 500, la empresa dijo que pueden ejecutar todas las cargas de trabajo. Sin embargo, aclaró que estos chips serán usados principalmente para la producción de inferencia GenAI en el corto plazo y hasta 2027. Esa precisión sugiere que Meta está ordenando su hoja de ruta alrededor de las demandas más inmediatas de sus productos basados en IA generativa.
Otro elemento central del proyecto es la modularidad. Meta explicó que su silicio fue desarrollado bajo una arquitectura modular, lo que permite insertar nuevos chips dentro de la infraestructura de racks ya existente. Esa característica reduce los tiempos de espera entre diseño y despliegue, un punto crítico en un entorno donde la velocidad de implementación puede marcar diferencias competitivas.
Sobre el ritmo de lanzamientos, la compañía trazó una comparación directa con el resto del mercado. Mientras que la industria suele presentar un nuevo chip de IA cada uno o dos años, Meta afirmó que ahora tiene la capacidad de lanzar sus propios procesadores cada seis meses o menos, gracias a la reutilización de diseños modulares. Esa cadencia más agresiva podría darle mayor margen de adaptación frente a una tecnología que evoluciona con rapidez.
Una estrategia centrada en inferencia, velocidad y estándares abiertos
Meta resumió su estrategia MTIA en tres pilares: iteración rápida, diseño orientado a la inferencia y adopción sencilla mediante estándares comunes. Cada uno de esos componentes apunta a resolver problemas muy concretos del despliegue de IA a gran escala, desde la eficiencia del hardware hasta la compatibilidad con herramientas ampliamente utilizadas por desarrolladores e ingenieros.
En el primer punto, la empresa explicó que un ciclo de lanzamiento más corto le permite ajustarse con mayor rapidez a medida que cambian las técnicas de inteligencia artificial. También facilita incorporar nuevas tecnologías de hardware y reducir el costo de desarrollar y desplegar futuras versiones de chips. Para una compañía del tamaño de Meta, esa flexibilidad puede resultar tan valiosa como el rendimiento bruto.
El segundo pilar marca una diferencia importante frente al enfoque tradicional del mercado. Meta sostuvo que la mayoría de los chips convencionales se construyen primero para grandes tareas de preentrenamiento de GenAI y luego se aplican a otros trabajos, a menudo con una relación costo-rendimiento menos favorable. Su plan busca invertir esa lógica.
La empresa dijo que el MTIA 450 y 500 están siendo afinados primero para inferencia GenAI. Luego, esos mismos chips pueden emplearse para entrenamiento e inferencia de clasificación y recomendaciones, y también para entrenamiento GenAI cuando sea necesario. Este enfoque da prioridad al tipo de cómputo que suele ser más constante en la operación diaria de servicios digitales a gran escala.
El tercer pilar es la compatibilidad con herramientas y estándares abiertos. Meta indicó que MTIA se desarrolla desde el inicio con sistemas comunes, entre ellos PyTorch, vLLM, Triton y el Open Compute Project. Además, tanto sus diseños de sistema como sus racks siguen los estándares OCP para uso en centros de datos.
Ese detalle no es menor. En una infraestructura compleja, la facilidad de adopción puede acelerar el paso desde el diseño hasta la producción. También puede reducir fricciones para los equipos que trabajan con software, modelos y operación del hardware. En vez de construir un ecosistema completamente cerrado, Meta parece apostar por integrarse con tecnologías ya conocidas dentro del sector.
La compañía añadió que ningún chip único puede cubrir toda la demanda que enfrenta. Por eso planea desplegar distintos procesadores para diferentes cargas de trabajo, mientras avanza hacia lo que definió como “superinteligencia personal para todos”. Esa frase resume la ambición del grupo, aunque el anuncio actual se concentra en la infraestructura necesaria para sostener ese objetivo.
Más allá del caso puntual de Meta, el anuncio ilustra una transición relevante en la economía de la inteligencia artificial. Durante los últimos años, la demanda de GPUs de Nvidia se convirtió en un cuello de botella para buena parte del sector. Ahora, empresas con recursos suficientes están acelerando diseños propios para ganar independencia, mejorar eficiencia y reducir exposición a un mercado de hardware cada vez más competitivo.
La estrategia de Meta no implica abandonar a los proveedores externos, sino combinarlos con herramientas internas de forma selectiva. Esa mezcla podría convertirse en el modelo dominante entre los grandes operadores de IA. Si el plan funciona, Meta no solo abarataríaparte de sus cargas de trabajo, sino que también reforzaría su control sobre un componente esencial de su negocio futuro.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
IA
Fundador de OpenClaw carga contra GitHub por el caos en reportes de vulnerabilidades
IA
Grammarly desactiva su revisión experta con IA tras protestas de autores y periodistas
Empresas
xAI tropieza con Macrohard mientras Tesla acelera su propio agente de IA
Capital de Riesgo