Por Canuto  

La inteligencia ya no sería el recurso más escaso en la economía. Esa es la idea central que expuso Christian Catalini, economista del MIT, al analizar cómo la IA podría automatizar una gran parte del trabajo actual y desplazar el valor hacia una capacidad mucho más difícil de escalar: verificar que las máquinas realmente hagan lo correcto.

***

  • Christian Catalini sostuvo que la IA está volviendo abundante la cognición, pero no la capacidad humana de verificación.
  • El análisis distingue entre trabajadores desplazados, verificadores expertos, directores y creadores de significado.
  • También plantea que blockchain y cripto podrían aportar herramientas clave para identidad, procedencia y prueba de autenticidad.

 


La expansión de la inteligencia artificial está reabriendo una pregunta que ya se siente urgente en sectores tecnológicos, creativos y corporativos: si las máquinas pueden pensar, escribir, programar y analizar cada vez mejor, ¿qué valor diferencial le queda al trabajo humano?

Esa fue la cuestión central abordada en Your Job Will Be Automated. Here’s the Only Skill That Survives, una conversación del canal Bankless entre Ryan Sean Adams, David Hoffman y Christian Catalini, economista del MIT y antiguo impulsor del proyecto Diem en Facebook. Su tesis es clara: la inteligencia ya no sería el principal cuello de botella económico. La nueva escasez estaría en la verificación.

La idea parte de un cambio estructural. Durante gran parte de la historia humana, la cognición fue un recurso limitado. Las instituciones, empresas y jerarquías laborales se organizaron alrededor de esa restricción. Pero, según Catalini, la IA está alterando esa base al abaratar de forma acelerada tareas intelectuales que antes requerían años de formación, experiencia o especialización.

Eso no implica que todos los trabajos desaparezcan de inmediato, ni que la economía se dirija de forma inevitable a un colapso. Sí implica, sin embargo, que muchos roles se redefinirán a gran velocidad y que el valor se moverá hacia quienes puedan supervisar, corregir, orientar y asumir responsabilidad sobre sistemas automatizados.

La inteligencia se abarata, pero verificar sigue siendo difícil

El núcleo del argumento de Catalini es que la IA ya ha demostrado una gran capacidad para automatizar todo aquello sobre lo que puede ingerir datos, aprender patrones y reproducir resultados. Ese terreno incluye una porción creciente del trabajo que hoy se realiza frente a una pantalla.

Programación, redacción, análisis legal, investigación, soporte, diseño preliminar y marketing son solo algunos ejemplos. En todos ellos, los modelos pueden producir resultados “bastante buenos” a bajo costo. Y si una tarea puede medirse con claridad, compararse y evaluarse de forma sistemática, la presión para automatizarla aumenta.

Por eso Catalini propone abandonar conceptos difusos como “gusto” o “juicio” si no pueden aterrizarse en algo verificable. En su visión, la distinción relevante no es entre creatividad humana y capacidad maquinal, sino entre lo medible y lo no medible. Lo primero tiende a ser absorbido por la automatización. Lo segundo conserva más espacio para la intervención humana.

Ahí entra la verificación. No se trata solo de revisar si una respuesta está bien redactada o si un fragmento de código compila. Es la capa final donde una persona aplica su experiencia, contexto, intuición y responsabilidad para decidir si algo realmente está listo para salir al mercado, usarse con clientes o incorporarse a un sistema crítico.

En la práctica, eso implica comparar la “medición” del modelo con la del cerebro humano. Un editor detecta cuándo un texto suena vacío. Un radiólogo ve un detalle que el sistema pasa por alto. Un CTO sabe qué parte de una base de código requiere revisión línea por línea. Esa diferencia, sostuvo Catalini, todavía genera valor.

Pero ese refugio no es eterno. El propio economista advirtió que la verificación es una frontera decreciente. A medida que los humanos verifican, etiquetan y corrigen, también ayudan a empujar la frontera de lo que luego podrá ser automatizado.

El “codifier’s curse” y la desaparición del peldaño junior

Uno de los puntos más delicados del análisis es el impacto sobre los trabajadores de entrada. Catalini describió un fenómeno que llamó “missing junior loop”, o la desaparición del circuito junior. En muchas profesiones, los puestos de nivel inicial funcionaban como espacio de aprendizaje, observación y acumulación de criterio.

Eso incluía a paralegales en despachos jurídicos, analistas jóvenes en finanzas, desarrolladores junior, personal de investigación o redacción base. Si la IA puede ejecutar gran parte de esas tareas con un nivel aceptable, las empresas tienen menos incentivos para contratar a quienes antes aprendían haciéndolas.

El problema es profundo porque no solo afecta ingresos presentes, sino la formación del talento futuro. Si desaparece la etapa donde se adquiere conocimiento tácito, también se estrecha la ruta para llegar a ser el experto que luego verifica, dirige o toma decisiones de alto impacto.

Catalini cree que esta brecha puede compensarse parcialmente si los jóvenes usan estas herramientas para comprimir años de aprendizaje, construir proyectos por cuenta propia y probar ideas a una velocidad antes imposible. Pero reconoció que el cambio cultural es fuerte, sobre todo para quienes confiaban en la vieja secuencia: título universitario, pasantía, empleo inicial y ascenso gradual.

En esa transición aparece lo que llamó el “codifier’s curse”. Cada vez que una persona captura, formaliza y traduce su criterio en un conjunto de reglas o validaciones, contribuye a que la máquina absorba más del trabajo que antes parecía exclusivamente humano.

Tres rutas para seguir siendo valioso frente a la IA

Para ordenar el panorama, Catalini planteó una matriz basada en dos variables: costo de automatizar y costo de verificar. En el cuadrante más vulnerable están los trabajadores desplazados, es decir, aquellos cuyas tareas son fáciles de automatizar y fáciles de verificar. Allí, los salarios tienden a competir contra el costo del cómputo.

Frente a eso, propuso tres rutas más resilientes. La primera es la del “liability underwriter”, o quien asume responsabilidad experta sobre decisiones que otros no pueden revisar fácilmente. Aquí entran médicos de alto nivel, abogados top, inversionistas con historial probado o especialistas que firman y responden por decisiones bajo incertidumbre.

La segunda es la del “director”. No es solo quien revisa el resultado final, sino quien fija intención, coordina agentes, corrige desvíos y navega entornos de incertidumbre real, donde ni siquiera pueden asignarse probabilidades claras. Catalini asoció esta función con fundadores, emprendedores, científicos de frontera y perfiles creativos que operan en terrenos de “unknown unknowns”.

La tercera es la del “meaning maker”, o creador de significado. Aquí el valor no depende tanto de una verdad objetiva como de la coordinación social, el estatus, la narrativa y la capacidad de hacer que otros presten atención. Moda, arte, influencia cultural, ciertos segmentos del mercado cripto y parte de la economía de creadores entrarían en esa categoría.

Esta última ruta es relevante porque, según Catalini, a medida que el trabajo medible se abarata, la sociedad tenderá a crear nuevas formas de valorar lo no medible. En otras palabras, si la IA domina la ejecución rutinaria, los humanos podrían desplazarse hacia actividades donde el sentido emerge del consenso social y no solo de la utilidad objetiva.

El riesgo de una “economía hueca” y el problema de la supervisión

Aunque el tono general del análisis fue optimista, Catalini también advirtió sobre un escenario que describió como “hollow economy”, o economía hueca. Ese panorama aparece cuando todos los indicadores visibles parecen positivos, pero por debajo se acumulan riesgos mal verificados.

Una empresa podría mostrar más productividad, más código emitido y más crecimiento. Sin embargo, si la automatización avanza más rápido que la capacidad humana de supervisarla, se multiplican errores ocultos, sesgos, decisiones mal alineadas y fragilidades sistémicas que no son evidentes en el corto plazo.

Allí entra lo que llamó la “Trojan horse externality”. Es la tentación racional de automatizar cada vez más porque los beneficios inmediatos son claros, mientras los costos de mala verificación quedan diferidos, dispersos o fuera del balance. Catalini comparó este problema con episodios históricos como Long-Term Capital Management o Chernóbil, donde sistemas complejos funcionaron bien hasta que una combinación inesperada provocó un desenlace abrupto.

También rechazó la idea de que la solución sea simplemente usar más IA para verificar IA. Eso automatiza la parte verificable, pero no elimina el residuo de incertidumbre. Al final, lo que sigue sin poder medirse ni probarse del todo continúa recayendo en humanos, aunque ayudados por herramientas cada vez más potentes.

Por eso anticipa una carrera entre automatización y aumento de capacidad humana. Esa mejora podría venir por software, mejores interfaces o incluso tecnologías más radicales. Pero si no se cierra esa brecha, la supervisión humana podría quedarse atrás frente a sistemas que producen demasiado para ser revisados con rigor.

El papel de cripto y blockchain en la era de la autenticidad

Para la audiencia de Bankless, uno de los tramos más interesantes llegó cuando Catalini conectó estas ideas con el ecosistema cripto. A su juicio, blockchain ha estado construyendo durante más de una década algunas de las primitivas que podrían volverse esenciales en una economía atravesada por agentes de IA.

La primera es la prueba de identidad o proof of personhood. En un entorno donde voces, textos, imágenes y cuentas pueden ser generadas o manipuladas por máquinas, demostrar que una persona es real y que una acción provino efectivamente de ella gana importancia económica y política.

La segunda es la procedencia. Si un video de guerra, una prueba legal o un documento médico pueden ser falsificados con alto realismo, hará falta una cadena verificable de custodia desde el momento de captura hasta el momento de uso. Catalini sostuvo que las herramientas criptográficas y onchain encajan bien en ese desafío.

La tercera capa es la auditabilidad del comportamiento de modelos y sistemas. Aunque ese objetivo todavía luce distante, la idea es que parte de la infraestructura de verificación del futuro podría apoyarse en mecanismos cripto para probar integridad, autenticidad y trazabilidad de información.

No presentó esto como una solución total ni inmediata. Pero sí como una posible convergencia donde la IA abarata la producción de inteligencia, mientras blockchain ayuda a reconstruir confianza sobre identidad, origen y validez en un entorno crecientemente sintético.

Qué hacer en los próximos 12 meses

Frente a la ansiedad laboral que hoy rodea a la IA, Catalini recomendó no paralizarse. Su consejo fue probar activamente las herramientas, intentar automatizar la mayor parte posible del propio trabajo y observar con honestidad qué queda en pie después de ese ejercicio.

Esa exploración no debería limitarse al empleo formal. También puede abarcar hobbies, intereses laterales, pequeños proyectos y espacios donde una persona encuentre fluidez o motivación real. En su visión, parte del trabajo futuro podría emerger precisamente de actividades que hoy se consideran periféricas.

El economista también rechazó la idea de que un ingreso básico universal resuelva por sí solo el dilema. Según dijo, la gente no solo necesita dinero, sino también propósito, mejora personal y sensación de progreso. Por eso cree que la sociedad seguirá creando formas de trabajo, incluso nuevas versiones de “button pusher jobs”, si eso ayuda a sostener cohesión social.

Su conclusión fue marcadamente optimista. Pese a las fricciones, los choques regulatorios y la incertidumbre de corto plazo, afirmó que la transición puede salir bien para la humanidad. Pero dejó una condición implícita: quienes quieran conservar valor en la economía de la IA tendrán que moverse desde ejecutar tareas hacia verificar, dirigir, asumir responsabilidad o crear significado.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín