En una extensa conversación, Elon Musk planteó que el gran freno de la IA ya no será solo la capacidad de cómputo, sino la electricidad y la velocidad para desplegarla. Desde turbinas “vendidas hasta 2030” y tarifas que complican la expansión solar en Estados Unidos, hasta un pronóstico contundente: en 30 a 36 meses, el lugar más atractivo para instalar IA sería el espacio, impulsado por energía solar orbital y por una escala que, según él, la Tierra no podrá sostener.
***
- Musk sostuvo que solo 10% a 15% del costo total de un data center es energía, pero advirtió que la oferta eléctrica fuera de China se mantiene casi plana frente al crecimiento exponencial de chips.
- Afirmó que la energía solar sería cerca de cinco veces más efectiva en el espacio y que además se evitaría el costo de baterías, lo que, a su juicio, volvería a la órbita el sitio más barato para la IA en 30 a 36 meses.
- Señaló cuellos de botella industriales: turbinas “agotadas hasta 2030”, limitaciones en vanes y blades de gas turbines, y un futuro donde el límite pasará de “tener chips” a “poder encenderlos”.
🚀🌌 Elon Musk propone data centers de IA en el espacio
Advierte que la energía será el nuevo freno para IA
La capacidad eléctrica fuera de China se mantiene plana, mientras la demanda de chips crece exponencialmente
En 30 a 36 meses, los centros de datos en órbita podrían… pic.twitter.com/v3tdRw6ImX
— Diario฿itcoin (@DiarioBitcoin) February 19, 2026
Elon Musk volvió a agitar el debate sobre la infraestructura que sostiene la inteligencia artificial, esta vez con una tesis provocadora: el lugar económicamente más atractivo para instalar capacidades de IA terminará siendo el espacio.
La afirmación ocurrió durante una conversación de largo aliento en una entrevista por Dwarkesh Patel y Stripe publicada en YouTube, donde el empresario conectó energía, manufactura, permisos, cohetes y chips como partes de una misma cadena de restricciones.
En el intercambio, Musk insistió en que múltiples “líneas argumentales” convergen ahora, y que el cuello de botella real para escalar modelos, inferencia y centros de datos ya no es únicamente la disponibilidad de GPUs. A su juicio, el problema se está desplazando hacia la electricidad, los tiempos de interconexión, la capacidad industrial para construir generación y, en paralelo, la dificultad para ampliar la fabricación de chips avanzados y memoria.
El planteamiento aparece en un momento en que la narrativa pública de la IA se centra en la carrera por el cómputo, en nuevas arquitecturas y en enormes inversiones en infraestructura. El video, citado aquí como fuente principal, expone una mirada que intenta aterrizar el tema en restricciones físicas y de cadena de suministro, con estimaciones y ejemplos de despliegues energéticos que, según Musk, han requerido “milagros en serie”.
Energía: el freno que, según Musk, está por desplazar al cómputo
Uno de los puntos iniciales de la discusión fue el costo total de operación de un data center. Musk afirmó que solo entre 10% y 15% del costo total de propiedad corresponde a energía, mientras que la mayor parte se concentra en las GPUs. Aun así, defendió que la disponibilidad energética se está convirtiendo en el factor limitante para encender y operar grandes clústeres.
En su lectura, el crecimiento del “output” de chips avanza “casi exponencialmente”, mientras que la producción eléctrica fuera de China se mantiene “más o menos plana”, quizá con un leve incremento. Esa divergencia, dijo, obliga a preguntarse de dónde saldrá la electricidad si los centros de datos se instalan “en cualquier lugar excepto China”, especialmente al escalar.
El empresario introdujo una comparación para dimensionar el problema: indicó que Estados Unidos usa en promedio “medio terawatt” de electricidad. Por eso, llevar centros de datos a un terawatt implicaría aproximadamente “el doble” del consumo promedio actual del país, lo que demandaría construir enormes cantidades de data centers y plantas de generación, además de transformadores y equipamiento eléctrico asociado.
También criticó la velocidad del sector de utilities. Musk describió a la industria como “lenta” y alineada al ritmo de gobiernos y comisiones reguladoras. Puso como ejemplo los acuerdos de interconexión a gran escala, que, según dijo, pueden requerir estudios de un año antes de una respuesta. En su relato, ese ritmo choca con la urgencia de la industria de IA.
Por qué el espacio: permisos, escala y “siempre soleado”
Ante la pregunta de por qué mover la IA al espacio si el costo principal son las GPUs y su servicio en órbita sería difícil, Musk respondió que la energía y la escalabilidad son el núcleo del incentivo. Además, lo enmarcó como un tema regulatorio: afirmó que es más difícil construir en tierra que en el espacio, y que escalar “en el suelo” resulta más complejo que escalar “en el espacio”.
Una frase buscó capturar la idea de forma simple: “siempre está soleado en el espacio”. Musk argumentó que fuera de la atmósfera no existen ciclo día-noche, estacionalidad ni nubes, y que la atmósfera por sí sola genera alrededor de 30% de pérdida de energía. Por eso, sostuvo que un panel solar podría producir cerca de cinco veces más energía en el espacio que en tierra.
Además, insistió en que no se necesitarían baterías para cubrir la noche. Ese elemento, en su estimación, vuelve el cálculo aún más favorable y lo llevó a decir que, al considerar baterías, el espacio no sería solo “cinco veces” mejor, sino “diez veces” mejor en términos económicos. Con esa base, lanzó su predicción: en 36 meses o menos, “probablemente más cerca de 30 meses”, el espacio será el lugar más convincente económicamente para instalar IA.
La conversación incluyó también la opción de solar terrestre. Se mencionó que un terawatt de solar con factor de capacidad de 25% implicaría alrededor de cuatro terawatts en paneles, equivalente a cerca de 1% del área terrestre de Estados Unidos. Musk replicó que, más allá del área, el problema real serían permisos y tiempos regulatorios, y desafió a “intentar conseguir los permisos” para cubrir regiones como Nevada con paneles.
Turbinas, tarifas y la “dureza” del mundo físico
El video también abordó por qué no basta con construir plantas privadas “behind the meter” junto a centros de datos, evitando fricciones con la red. Musk reconoció que xAI hizo algo en esa dirección para “Colossus 2”, pero afirmó que esa solución abre otra pregunta: de dónde proviene la capacidad industrial para fabricar las plantas, en particular turbinas.
Según Musk, el cuello de botella estaría en componentes específicos de turbinas a gas, en particular “vanes and blades”, que requieren procesos especializados de fundición. Aseguró que hay “solo tres” empresas de casting en el mundo que producen esas piezas y que están “masivamente” atrasadas. En ese mismo hilo, afirmó que las turbinas están vendidas “hasta 2030”.
En paralelo, señaló que escalar otras fuentes también es difícil. Sobre solar en Estados Unidos, se quejó de tarifas arancelarias que calificó como “gigantescas” y “varios cientos por ciento” para importaciones, mientras describió la producción doméstica como “lamentable”. También sugirió que SpaceX y Tesla tendrían un mandato para llegar a 100 gigawatts al año de producción de celdas solares, desde materias primas hasta el panel final.
El argumento se enmarca en una advertencia más amplia: quienes vienen del “software land” recibirán una “lección dura” al chocar con límites de hardware. Para Musk, el mundo físico impone demoras, S-curves de manufactura y dependencias de suministro que no se resuelven con voluntad o capital de forma inmediata.
Estimaciones operativas: energía real para decenas de miles de GPUs
En un tramo técnico, Musk explicó que calcular el consumo de un clúster no debe limitarse al consumo nominal de una GPU. Dijo que también hay que sumar redes, CPUs, almacenamiento, enfriamiento y márgenes por mantenimiento de generación. Describió que, en lugares calurosos, la carga por cooling puede sumar alrededor de 40% adicional.
Luego añadió otro multiplicador: la necesidad de margen por el hecho de que parte de la generación se debe sacar de servicio para mantenimiento, lo que en su relato agrega 20% a 25% extra. Con esos supuestos, ofreció una cifra: cada 110.000 “GB300s”, incluyendo soporte y márgenes, requerirían aproximadamente 300 megawatts.
Con esa misma lógica, afirmó que para alimentar 330.000 “GB300s” y todo su soporte, el nivel de generación requerido sería aproximadamente un gigawatt. La conversación no detalló el contexto exacto de qué representa “GB300” dentro del ecosistema de hardware, pero lo utilizó como unidad de referencia para dimensionar necesidades energéticas.
El punto central fue que, incluso con chips disponibles, la industria podría encontrarse con una situación en que no se pueden encender grandes cantidades de hardware por falta de energía concentrada. Musk afirmó que, hacia fines de “este año”, podría ocurrir que la producción de chips supere la capacidad de encenderlos en grandes clústeres, con chips “apilándose” sin poder operar.
Escala extrema: cientos de gigawatts y miles de lanzamientos
Desde su visión, una vez desbloqueada la restricción de energía con solar orbital, la escala podría crecer a cientos de gigawatts de “IA en el espacio” por año. Musk dijo esperar que en cinco años se lance y opere cada año más IA en el espacio que la suma acumulada de IA en la Tierra, y habló de “unos pocos cientos de gigawatts por año” en ese horizonte.
El interlocutor objetó la logística y estimó que 100 gigawatts podrían implicar del orden de 10.000 lanzamientos de Starship por año, y planteó un ritmo equivalente a un lanzamiento por hora. Musk respondió que ese ritmo, aunque elevado, sería menor que el de la aviación comercial si se considera que existen muchos aeropuertos, y sostuvo que SpaceX se prepara para 10.000 lanzamientos al año, e incluso “20.000 o 30.000” anuales.
Sobre la flota, sugirió que podrían bastar 20 o 30 naves, dependiendo de la rapidez de rotación y de la necesidad de que la trayectoria vuelva a pasar por la plataforma de lanzamiento. En su escenario, la frecuencia de operación sería un rasgo central para escalar la infraestructura orbital.
En otro guiño, conectó el argumento con la energía del Sol y la escala civilizatoria. Dijo que la Tierra recibe alrededor de “medio billonésimo” de la energía solar, y que para subir en la escala de Kardashev habría que capturar fracciones mayores. En su marco, la única manera realista de crecer a esos niveles es solar en el espacio, y más adelante, lanzamientos desde la Luna con un “mass driver”.
Chips, memoria y la idea de una “TeraFab”
El video también giró hacia la manufactura de semiconductores. Musk sostuvo que el límite, una vez resuelto el de energía, pasará a ser chips, y en particular memoria. Dijo que el mundo tendría “20 a 25 gigawatts de compute” y planteó la necesidad de construir grandes fábricas para llegar a una “terawatt” de lógica hacia 2030.
En ese contexto, mencionó públicamente la idea de una “TeraFab”, donde “Tera” sería el nuevo “Giga”. Según su descripción, la fabricación masiva requeriría abordar lógica, memoria y empaquetado. También señaló que las máquinas clave provienen de un grupo reducido de proveedores, citando a ASML, Tokyo Electron y KLA-Tencor como parte del stack industrial.
Al comparar el liderazgo de chips, Musk dijo que China no habría replicado tanto a TSMC como a ASML, y que ese sería el factor limitante. Afirmó que las restricciones para adquirir nodos de 2 a 3 nanómetros han operado “por un tiempo”. También aventuró que China produciría chips “bastante convincentes” en “tres o cuatro años”.
La conversación dejó claro que, incluso con capital, la expansión de una fábrica a producción en volumen requiere tiempo. Musk dijo que, desde comenzar hasta lograr volumen con alto rendimiento, el proceso toma alrededor de cinco años, ya que hay que construir, iniciar producción y subir por la curva de yield.
Edge compute vs clústeres: por qué la restricción no sería igual para robots
Musk introdujo una distinción entre cómputo concentrado en centros de datos y cómputo distribuido en el borde. Para Tesla, afirmó que el chip “AI5” iría a Optimus, y que en edge compute la restricción energética es distinta porque la demanda se reparte y se puede aprovechar capacidad nocturna de la red.
Indicó que el “peak” de producción eléctrica en Estados Unidos supera 1.000 gigawatts, pero el promedio es 500 gigawatts por el ciclo día-noche. En su explicación, cargar por la noche permitiría utilizar mejor la infraestructura existente, liberando un margen incremental que no aplica a clústeres concentrados que requieren enormes bloques de energía continua.
De esa forma, defendió que Tesla podría producir grandes volúmenes de chips para robots y autos sin chocar con el mismo muro que enfrentan los hyperscalers cuando intentan encender mega clústeres. El límite, insistió, aparece con fuerza cuando se concentra la demanda.
Robots, manufactura y competencia con China
La discusión también se desplazó a la manufactura y al papel de los humanoides. Musk afirmó que para robots humanoides hay “tres cosas difíciles”: inteligencia del mundo real, la mano y manufactura a escala. Sostuvo que el “hand” es más difícil que el resto combinado y que Tesla diseñó actuadores, motores, engranajes, electrónica de potencia, sensores y controles desde “primeros principios” porque no existe supply chain lista.
Sobre el entrenamiento, reconoció que Tesla no cuenta con un equivalente directo a la masiva recopilación de datos que ofrecen millones de autos en carretera. Por eso, dijo que se necesitaría construir muchos robots y llevarlos a una especie de “Optimus Academy” para self-play en el mundo real, además de millones de robots simulados para cerrar la brecha sim-to-real.
En el tramo geopolítico, Musk elogió la capacidad manufacturera de China y aseguró que el país refina aproximadamente “el doble” de mineral que el resto del mundo combinado. Mencionó también que China haría 98% del refinado de galio, usado en celdas solares, y criticó que en Estados Unidos se extraigan minerales raros para luego enviarlos a China a refinar y convertir en componentes que regresan a Norteamérica.
Con un tono severo, dijo que en ausencia de innovaciones disruptivas en Estados Unidos, China “dominará” manufactura y, por extensión, capacidad industrial. También vinculó esa competencia a demografía y ética laboral, al señalar que China tiene cerca de cuatro veces la población de Estados Unidos y, según su percepción, un mayor “work ethic” promedio.
De la infraestructura al mercado: una lectura útil para IA, cripto y finanzas
Aunque el video no se enfocó directamente en criptomonedas, varias ideas pueden interesar a lectores de mercados y tecnología. La primera es que, si la energía se convierte en el cuello de botella principal para generar “tokens” de IA, como sugirió Musk al hablar de “generar tokens” con energía solar orbital, entonces el costo marginal del cómputo podría depender menos del precio de GPUs y más del acceso energético y regulatorio.
La segunda es que un cambio así altera expectativas sobre inversión en infraestructura. Musk habló de turbinas, blades, permisos y cadenas de suministro, todas variables que afectan a empresas cotizadas, al crédito privado que financia data centers y a políticas industriales. En su narrativa, los límites físicos pueden imponer shocks de oferta que se trasladan a precios y a ventajas competitivas.
Finalmente, el énfasis en “limiting factors” funciona como lente para interpretar ciclos tecnológicos. Musk repitió que su método consiste en atacar el factor que frena la velocidad, ya sea capital, energía o chips. Si su pronóstico se materializa, la carrera por IA podría definirse por quién logra encender y sostener más cómputo, no solo por quién compra más silicio.
En cualquier caso, el planteamiento de IA en el espacio todavía opera como predicción y hoja de ruta, no como realidad desplegada. Aun así, el video deja un registro claro de las cifras y obstáculos que Musk considera centrales. Su apuesta es que la órbita y la energía solar espacial terminarán resolviendo la restricción energética, y que el siguiente muro será fabricar suficientes chips y memoria para escalar a niveles de terawatts.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
CME habilitará comercio 24/7 de futuros de criptomonedas en mayo
Bitcoin cae a USD $66.000 tras minutas de la FED que frenan recortes de tasas y sugieren alzas
Bitwise busca lanzar ETFs de mercados de predicción ligados a elecciones de EE.UU.