Una nueva arquitectura de chips propone dejar de combatir el ruido térmico y empezar a usarlo como motor de cómputo. Extropic asegura que su enfoque termodinámico podría elevar la eficiencia energética de la IA hasta 10.000 veces frente a las GPU actuales, aunque el reto real será escalar la idea desde pruebas iniciales hasta centros de datos.
***
- Extropic desarrolla chips basados en P-bits, dispositivos probabilísticos que aprovechan el ruido térmico del transistor para calcular.
- La compañía afirma que su tecnología podría ofrecer hasta 10.000 veces más eficiencia energética que las GPU, aunque por ahora solo en simulaciones y pruebas pequeñas.
- El enfoque podría ser útil para inferencia de IA generativa, optimización, simulaciones Monte Carlo y modelos probabilísticos, pero enfrenta grandes desafíos de escalado y software.
La industria tecnológica atraviesa una etapa de tensión creciente entre la ambición de los modelos de inteligencia artificial y el costo físico de ejecutarlos. Cada nueva generación de sistemas exige más centros de datos, más electricidad y más infraestructura. En ese contexto, una propuesta de Extropic plantea una alternativa radical: dejar de reprimir el ruido natural del silicio y convertirlo en parte central del proceso computacional.
La idea fue analizada por Anastasi In Tech en el video The End of Computing As We Know It, donde se examina una arquitectura termodinámica que busca aprovechar la física de los transistores en lugar de forzarlos a comportarse de forma perfectamente determinista. Si la tesis se sostiene a gran escala, no solo cambiaría la forma de diseñar chips para IA, sino también la economía energética de este mercado.
El argumento parte de una observación simple, pero de enorme alcance. La computación no es abstracta. Cada operación ocurre en un sistema físico y, por tanto, está sujeta a límites termodinámicos. La segunda ley de la termodinámica establece que la energía tiende a dispersarse y que parte de ella se pierde como calor. En los años sesenta, Rolf Landauer llevó esa idea al mundo del cómputo al demostrar que incluso borrar un solo bit requiere energía, porque eliminar información incrementa la entropía.
Durante décadas, la industria construyó chips como si ese problema pudiera mantenerse bajo control de manera indefinida. Los transistores, base de casi todos los dispositivos modernos, fueron diseñados para alternar con limpieza entre dos estados, cero y uno. Esa precisión hizo posible la era digital, pero también impulsó una filosofía de diseño obsesionada con suprimir el ruido y cualquier ambigüedad del sistema.
El problema, según expone la fuente, es que la naturaleza del cómputo ha cambiado. Los modelos modernos de IA no buscan una única respuesta exacta en cada paso. En realidad, realizan inmensas cantidades de multiplicaciones matriciales para construir distribuciones de probabilidad y, a partir de ellas, muestrear un resultado. Esa dinámica probabilística está en el centro de sistemas como Claude, Gemini, Mistral o Grok.
En otras palabras, buena parte del hardware actual está siendo usado para simular azar controlado. Y eso implica un costo enorme. Según el video, si la tendencia actual continúa, para 2030 la IA podría consumir una cantidad de energía equivalente a 44 reactores nucleares. Desde esa perspectiva, el problema no sería solo cuánta energía se necesita, sino si la arquitectura dominante está obligando a gastar demasiado para hacer un trabajo que la propia física podría resolver de manera más directa.
Qué propone Extropic con su computación termodinámica
La clave de la propuesta está en operar el transistor en una zona que la ingeniería tradicional ha intentado evitar. En un chip convencional, si el voltaje supera cierto umbral, el transistor se enciende; si no lo hace, permanece apagado. A voltajes altos, esa barrera energética se supera de forma predecible. Sin embargo, cuando el voltaje baja, el ruido térmico de los electrones empieza a importar mucho más.
En ese régimen, las fluctuaciones aleatorias ya no son una molestia secundaria. Pueden empujar la carga sobre la barrera de energía y hacer que el estado del transistor deje de ser totalmente seguro. En vez de un interruptor nítido entre cero y uno, aparece un comportamiento fluctuante. Para la computación digital clásica, eso es un defecto. Para Extropic, es la base del diseño.
Ese componente recibe el nombre de P-bit, o bit probabilístico. A diferencia de un bit convencional, no almacena un valor fijo. Oscila continuamente entre cero y uno, y la probabilidad de inclinarse hacia uno u otro lado puede ajustarse con el voltaje aplicado. Así, el chip no necesita simular aleatoriedad mediante capas complejas de hardware. La obtiene directamente de la física del transistor.
La importancia de esto es considerable. La fuente señala que, en chips actuales, generar incluso un solo bit probabilístico puede requerir decenas de miles de transistores para imitar el azar. En la aproximación de Extropic, esa capa desaparece. La aleatoriedad surge “gratis” desde el propio material, lo que en teoría reduce de forma dramática el gasto energético.
Cuando muchos P-bits se conectan con enlaces ponderados, forman una unidad de muestreo termodinámico. El sistema sigue una distribución de Boltzmann a una temperatura determinada. Como los estados de mayor energía son menos probables que los de menor energía, el conjunto tiende a pasar más tiempo en configuraciones de baja energía, que son interpretadas como las mejores soluciones del problema planteado.
En términos sencillos, el cálculo no surge de imponer una secuencia rígida de instrucciones, sino de dejar que el sistema físico explore posibilidades y converja hacia estados más probables. Esa lógica encaja con tareas donde lo importante no es una exactitud binaria absoluta, sino hallar patrones, inferir opciones plausibles o muestrear resultados entre varias alternativas aceptables.
La promesa de eficiencia y los límites actuales
El dato más llamativo del análisis es la cifra de eficiencia. Extropic afirma que su silicio temprano muestra hasta 10.000 veces mejor eficiencia energética que las mejores GPU actuales. Pero el propio video introduce una advertencia crucial: ese resultado proviene de simulaciones y pruebas pequeñas, como la generación de una imagen, no de despliegues a escala de centros de datos.
Esa precisión importa. En el ecosistema tecnológico abundan ideas brillantes que se desempeñan bien en laboratorio y luego tropiezan al escalar. Aun así, el caso de Extropic tiene un rasgo diferenciador frente a otras apuestas disruptivas como la computación cuántica. Según la fuente, este enfoque corre sobre silicio estándar, a temperatura ambiente y con tecnología CMOS convencional, sin criogenia ni infraestructura exótica.
Eso abre una posibilidad que la computación cuántica todavía no ofrece con la misma facilidad: pensar en integración con la cadena industrial actual de semiconductores. Si una arquitectura alternativa puede fabricarse con herramientas y procesos ya conocidos, su potencial de adopción mejora. Pero eso no elimina los desafíos de ingeniería.
El primero es el propio carácter analógico del sistema. Los P-bits están interconectados en mallas de resistencias, lo que eleva el riesgo de acoplamientos no deseados entre elementos. En vez de obtener ruido útil e independiente, pueden aparecer correlaciones no planificadas. La fuente compara esta situación con una habitación llena de personas que deberían tomar decisiones por sí mismas, pero terminan escuchando susurros a través de las paredes.
A pequeña escala, esos efectos pueden ser manejables. En sistemas más grandes, tienden a acumularse. Extropic prevé lanzar este año su primer chip comercial, el Z1, con alrededor de 250.000 P-bits en una sola pieza. Ese salto será una prueba importante, porque cuanto más crece el sistema, más difícil resulta preservar el equilibrio entre ruido útil y acoplamiento no deseado.
El segundo gran obstáculo está en el software. Toda la pila moderna de IA fue construida sobre hardware determinista. Plataformas como CUDA tardaron décadas en madurar. Un nuevo paradigma probabilístico no solo necesita chips competitivos, también exige nuevas abstracciones, nuevos algoritmos y una comunidad dispuesta a adoptar herramientas distintas. Mientras tanto, las GPU siguen mejorando su eficiencia año tras año.
Dónde podría encajar esta tecnología si funciona
Incluso en el escenario optimista, la propuesta de Extropic no apunta a reemplazar toda la computación clásica. Hay sectores donde la certeza es irrenunciable, como banca, sistemas de control o medicina. En esos dominios, la tolerancia al comportamiento probabilístico es limitada y la exactitud continúa siendo la prioridad principal.
Pero no todas las cargas de trabajo comparten esa exigencia. La propia fuente menciona varios campos donde este enfoque podría resultar especialmente adecuado: inferencia de IA generativa, detección de anomalías, modelos basados en energía, optimización de rutas, simulaciones científicas, métodos Monte Carlo y modelos autosupervisados. Todos ellos tienen un componente probabilístico profundo.
Si Extropic logra materializar su promesa, la consecuencia más relevante sería económica. Hoy, el costo de la IA no depende solo del talento, los datos o el capital. También depende de la factura eléctrica y de la capacidad para seguir ampliando centros de datos sin disparar el consumo energético. Un hardware que deje de pelear contra la entropía y la use a su favor podría modificar esa ecuación.
La propuesta, sin embargo, todavía está lejos de considerarse probada. El mercado de infraestructura para IA está construido alrededor de inversiones de escala billonaria y procesos altamente optimizados en torno a GPU. Un reemplazo real necesita ser no solo mejor en teoría, sino claramente superior, fácil de integrar y validado en producción. De lo contrario, corre el riesgo de terminar como una solución elegante sin mercado suficiente.
Con todo, el enfoque tiene valor incluso como señal tecnológica. Muestra que la carrera por la IA ya no consiste únicamente en apilar más potencia de cómputo sobre diseños conocidos. También empieza a abrirse una discusión más fundamental sobre qué tipo de computación tiene sentido para problemas donde la probabilidad no es un error, sino parte de la respuesta.
En esa discusión, Extropic representa una apuesta poco convencional, pero alineada con una necesidad urgente de la industria. Si sus chips termodinámicos escalan, podrían inaugurar una nueva etapa para la computación especializada en IA. Si fracasan, al menos habrán puesto sobre la mesa una pregunta que cada vez parece más difícil de ignorar: si la inteligencia artificial funciona sobre distribuciones de probabilidad, ¿por qué seguimos construyéndola sobre máquinas diseñadas para fingir que el azar no existe?
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Criptomonedas
Franklin Templeton compra spinoff de CoinFund para reforzar su apuesta institucional por cripto
Empresas
Jack Dorsey plantea reemplazar gerentes con IA en reestructuración de Block
Empresas
Salesforce transforma Slack con 30 funciones de IA y un Slackbot más autónomo
Criptomonedas