Por Canuto  

La industria de inteligencia artificial vivió una semana de definiciones. Nvidia elevó su ambición al hablar de al menos USD $1 billón en ingresos hacia 2027, Anthropic consolidó su avance entre clientes empresariales y Tesla apareció como potencial retador del cuello de botella fabril dominado por TSMC. Al mismo tiempo, la presión sobre el empleo en ciencias de la computación dejó de ser una hipótesis y empezó a verse en cifras concretas.
***

  • Nvidia afirmó que ve al menos USD $1 billón hacia 2027 y profundizó su apuesta por robots, centros de datos, autos autónomos y computación orbital.
  • Anthropic fue presentada como la firma más disruptiva del momento, con una fuerte subida en cuota entre nuevos clientes empresariales frente a OpenAI.
  • El debate también giró hacia los efectos económicos y laborales de la IA, incluida la fuerte caída en colocación de graduados de ciencias de la computación.

 


La inteligencia artificial entró en otra fase de aceleración. En una conversación publicada por Peter H. Diamandis bajo el título NVIDIA’s $1 Trillion Prediction, Anthropic Beats OpenAI, Tesla vs. TSMC & The CS Job Collapse | 240, el debate giró alrededor de una idea central: la infraestructura de IA ya no es solo un negocio de software, sino un nuevo sistema industrial con implicaciones para chips, energía, robótica, empleo y geopolítica.

El punto de partida fue Nvidia GTC 2026, descrito como un evento multitudinario con 30.000 asistentes, 2.000 ponentes y 1.000 sesiones. Según lo comentado en el programa, la conferencia mostró hasta qué punto Nvidia está intentando convertirse en la base de casi toda la nueva economía de IA, desde centros de datos hasta robots, autos autónomos y herramientas empresariales.

En ese marco, Jensen Huang lanzó una de las afirmaciones más fuertes de la semana. “Right here where I stand, I see through 2027 at least USD $1 billón”, dijo en referencia a ingresos, no a valoración de mercado. La frase fue interpretada como una señal de hasta dónde cree Nvidia que puede escalar la demanda por cómputo acelerado si la industria mantiene el ritmo actual.

El panel matizó ese cálculo al señalar que buena parte de ese monto correspondería a reservas y contratos reconocidos durante el tiempo de ejecución, no necesariamente a ingresos en un solo año calendario. Aun así, la discusión coincidió en que la demanda existe y que el límite principal no estaría en los compradores, sino en la capacidad de fabricación de chips avanzados.

Nvidia empuja su dominio desde los chips hasta los robots

Uno de los temas más repetidos fue el cuello de botella de TSMC. En la conversación se afirmó que Nvidia ya habría asegurado cerca del 70% del volumen del nodo de 3 nanómetros de la firma taiwanesa. Bajo esa lectura, la barrera no sería vender más GPU, sino fabricarlas a tiempo.

Esa dependencia es clave porque explica por qué la expansión de Nvidia también atrae preguntas regulatorias. No se habló de una acción concreta, pero sí de la posibilidad de que en algún momento gobiernos y clientes empiecen a ver a Nvidia como infraestructura crítica, con un poder excesivo sobre la cadena tecnológica occidental.

El otro frente fue el software empresarial. Jensen Huang anunció apoyo a Open Claw, descrito en el programa como el proyecto open source de más rápido crecimiento de la historia. En la charla se subrayó que Nvidia no solo quiere vender hardware, sino empaquetar capas completas para empresas, incluyendo entornos seguros que faciliten automatizar flujos internos con agentes de IA.

El grupo defendió que esa combinación podría acelerar una adopción corporativa masiva. La tesis expuesta fue que las organizaciones no pueden competir a largo plazo manteniendo procesos puramente humano a humano si existen sistemas agente a agente que optimizan tareas de manera recursiva. En ese contexto, Nvidia buscaría posicionarse como proveedor del “sistema operativo” de esa transición.

La visión de amplitud también quedó clara en robótica y transporte. Jensen destacó que casi todas las compañías que construyen robots trabajan con Nvidia y anunció nuevos socios para su plataforma de robotaxis: BYD, Hyundai, Nissan y JLR, que suman 18 millones de vehículos construidos por año. A eso añadió una alianza relevante con Uber para desplegar autos listos para robotaxi en múltiples ciudades.

El alcance fue todavía mayor con otra idea que hace pocos meses parecía marginal: centros de datos en órbita. Nvidia habló de trabajar con socios en un sistema llamado Vera Rubin Space One para llevar capacidad de cómputo al espacio, donde el reto central ya no es la convección o la conducción del calor, sino la disipación por radiación.

Anthropic gana fuerza entre empresas y OpenAI enfrenta presión

En paralelo al ascenso de Nvidia, el programa retrató un cambio de equilibrio entre laboratorios de IA. Time habría nombrado a Anthropic como la compañía más disruptiva del mundo, mientras que un gráfico compartido durante la conversación mostró un fuerte cambio en la cuota de nuevos clientes empresariales.

Según esos datos, Anthropic pasó de 40% a 73% en participación entre nuevos clientes empresariales en apenas tres meses. OpenAI, por su parte, habría retrocedido de 60% a 26% en el mismo periodo. El comentario del panel fue directo: se trata de una paliza competitiva en el segmento corporativo.

La explicación propuesta fue estratégica. OpenAI habría apostado con más fuerza al mercado de consumo, esperando que los usuarios finales demandaran grandes volúmenes de cómputo de razonamiento. Anthropic, con menos recursos, se habría concentrado en empresas, donde la urgencia por automatizar procesos y pagar por capacidad avanzada sería mayor.

Sin embargo, el panel evitó presentar el cuadro como una derrota terminal para OpenAI. Se recordó que GPT 5.4 Pro fue descrito como un modelo muy sólido y que CodeX, su alternativa en programación asistida, estaría creciendo con rapidez. La lectura predominante fue que todas las grandes firmas del sector seguirán creciendo, aunque en esta etapa Anthropic estaría aprovechando mejor el apetito empresarial por modelos confiables y orientados a productividad.

Otro dato importante vino de Sam Altman. En el debate se citó su afirmación de que el costo para obtener la misma respuesta a un problema difícil cayó unas 1.000 veces entre su primer modelo de razonamiento, O1, y GPT 5.4. La conversación interpretó esta caída como evidencia de una fuerte deflación del costo de la inteligencia, impulsada por mejoras en inferencia más que en entrenamiento.

Esa dinámica importa porque sugiere que la capacidad de IA puede seguir creciendo mientras el costo unitario se desploma. Para mercados financieros, infraestructura digital y hasta economías cripto, este tipo de tendencia es especialmente relevante, ya que una inteligencia más barata y ubicua altera los costos de producción de software, servicios y análisis en casi todos los sectores.

Tesla, TSMC y la batalla por la manufactura del futuro

La otra gran arista industrial fue Tesla. En la conversación se habló de una iniciativa llamada Terra Fab, presentada como un movimiento de Elon Musk para reducir su dependencia de terceros y construir una capacidad de fabricación propia a enorme escala. Se mencionó una meta inicial de 100.000 obleas por mes, con aspiración de llegar a 1 millón.

Ese número fue descrito como equivalente aproximado al 70% de la producción global anual actual de TSMC, medida en la escala discutida durante el programa. Más allá de si el proyecto se concreta tal como fue expuesto, el punto central es que Musk volvería a aplicar su patrón de integración vertical, esta vez sobre semiconductores.

La tesis del panel fue que Musk detesta depender de proveedores externos en tecnologías críticas. Si Tesla, xAI y SpaceX requieren chips para robotaxis, Optimus, centros de datos y sistemas orbitales, entonces construir la cadena desde la fábrica hasta la aplicación sería una respuesta lógica para su estrategia.

Además del frente empresarial, también se destacó la dimensión geopolítica. Una expansión seria de fabricación avanzada en Estados Unidos ayudaría a reducir el riesgo sistémico asociado a una eventual crisis en Taiwán. Esa observación conectó la carrera de IA con seguridad nacional, cadena de suministro y capacidad industrial doméstica.

La energía nuclear vuelve al centro de la conversación

Todo este crecimiento computacional exige electricidad. El programa citó un informe de Morgan Stanley que calcula un déficit energético para centros de datos de entre 13 gigavatios y 404 gigavatios hacia 2028. La conclusión fue simple: el mundo necesita mucha más energía si quiere sostener la expansión de la IA.

En ese marco, la energía nuclear reapareció como una solución cada vez más visible. Se mencionó que Illinois está levantando restricciones sobre nuevos reactores de más de 300 megavatios, que Meta aseguró 6,6 gigavatios de energía limpia con horizonte en 2035 y que Japón reactivó un gran reactor de Tepco con la meta de apoyar 20% de sus necesidades eléctricas para 2040.

También se comentó que Samsung trabaja en pequeños reactores modulares flotantes, destinados a desalinización y suministro eléctrico costero. La lectura del panel fue que la IA está actuando como nueva cobertura política para acelerar una agenda nuclear que antes encontraba más resistencia pública.

Para la economía digital, esto sugiere que la próxima gran competencia no será solo por chips y modelos, sino también por electrones. La abundancia computacional depende de la abundancia energética, y esa relación ya empieza a definir estrategias corporativas y nacionales.

La otra cara del auge: empleo, salarios y el futuro del trabajo

Si el tono general del programa fue marcadamente optimista sobre el progreso técnico, la parte laboral fue mucho más dura. Se presentó una serie de datos atribuidos a un profesor que siguió durante varios semestres la colocación y salario inicial de sus estudiantes de ciencias de la computación.

Las cifras mostraron una caída abrupta. En otoño de 2023, 89% de sus alumnos lograba colocación con un salario de USD $94.000. En primavera de 2024, la cifra bajó a 71%. En otoño de 2024 cayó a 43%, en primavera de 2025 a 31% y en la primavera actual a apenas 19%, con salario por debajo de USD $61.000.

La frase usada en el panel fue brutal: estos jóvenes hipotecaron su futuro por carreras que se evaporaron mientras seguían en clase. Más allá de que se trate de una muestra puntual, el dato fue usado como señal de una transición estructural, no de una simple desaceleración cíclica.

La recomendación insistente del panel fue virar hacia emprendimiento, participación accionaria y construcción de nuevos negocios en lugar de apostar por trayectorias tradicionales de empleo asalariado en trabajo cognitivo. También se advirtió que otras profesiones, como contabilidad, derecho o incluso parte de la formación médica, podrían vivir presiones similares.

En términos amplios, la conversación dibujó un escenario de abundancia técnica y dislocación laboral simultánea. Nvidia, Anthropic, OpenAI, Tesla y otros actores estarían empujando una expansión económica gigantesca, pero el ajuste de corto plazo sobre carreras y estructuras laborales ya empezó a sentirse. Esa tensión, más que cualquier demo o keynote, podría terminar siendo el verdadero tema económico de la próxima etapa de la IA.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín