Por Canuto  

La periodista Karen Hao lanzó una de las críticas más duras contra la industria de inteligencia artificial al sostener que sus principales empresas han construido “imperios” basados en extracción de datos, explotación laboral, presión política y narrativas de miedo. En una extensa conversación con Steven Bartlett, la autora de Empire of AI cuestionó el discurso de OpenAI, Sam Altman y otros líderes del sector, y pidió frenar el desarrollo de la IA bajo reglas más democráticas.
***

  • Karen Hao afirmó que las grandes empresas de IA “gaslightean” al público para justificar más poder, capital y control regulatorio.
  • La autora sostuvo que la carrera por la AGI se apoya en definiciones ambiguas, despidos, trabajo precario y un alto costo ambiental.
  • También pidió “romper los imperios de IA” y apoyar alternativas más eficientes, útiles y menos destructivas para la sociedad.


La discusión sobre inteligencia artificial suele dividirse entre entusiasmo tecnológico y alarma existencial. En esa tensión se ubicó Karen Hao, periodista especializada en tecnología y autora del libro AI Whistleblower: We Are Being Gaslit By The AI Companies! They’re Hiding The Truth About AI!, en una conversación con Steven Bartlett para The Diary Of A CEO, publicada el 26 de marzo de 2026.

Su tesis fue directa. Según Hao, buena parte de la industria de IA ha construido una narrativa interesada para convencer al público de que debe aceptar una concentración extrema de poder, recursos y decisiones. A su juicio, no se trata solo de una disputa técnica sobre modelos y cómputo, sino de una estructura política y económica con costos humanos muy concretos.

La autora explicó que su investigación tomó forma tras más de 300 entrevistas, incluidas más de 90 con empleados y ex empleados de OpenAI. También dijo haber seguido la historia de esa empresa durante años, desde su etapa en MIT Technology Review hasta su trabajo posterior en The Wall Street Journal.

Hao remarcó que no quiso escribir un libro corporativo en sentido estricto. Su objetivo, dijo, fue conectar lo que ocurre dentro de Silicon Valley con los efectos reales sobre trabajadores, artistas, comunidades locales y sistemas políticos fuera del circuito tecnológico.

La crítica al mito de la AGI

Uno de los ejes de su argumentación fue la propia definición de inteligencia artificial general, o AGI. Hao recordó que el campo de la IA se formalizó en 1956, cuando John McCarthy propuso el término “artificial intelligence” en Dartmouth, y sostuvo que desde entonces el sector arrastra un problema básico: no existe consenso científico sobre qué es la inteligencia humana.

Desde su perspectiva, esa ambigüedad permite que las empresas redefinan la AGI según convenga. Dijo que OpenAI ha utilizado distintas versiones del concepto en distintos contextos: ante el Congreso como una tecnología capaz de curar el cáncer, resolver el cambio climático y acabar con la pobreza; ante consumidores como el mejor asistente digital imaginable; con Microsoft como un sistema capaz de generar USD $100.000 millones en ingresos; y en su propio sitio web como sistemas altamente autónomos que superan a los humanos en la mayoría del trabajo económicamente valioso.

Para Hao, esa elasticidad conceptual no es un detalle semántico. Es una herramienta de movilización política y financiera. Permite, según su argumento, recaudar capital, atraer talento, suavizar la regulación y presentar la carrera tecnológica como un destino inevitable.

También cuestionó la hipótesis, defendida por figuras como Ilya Sutskever y Geoffrey Hinton, de que el cerebro humano puede entenderse como un gran motor estadístico. Afirmó que esa visión no está científicamente resuelta y que fuera del mundo de la IA, especialmente entre neurocientíficos y psicólogos, existe amplio desacuerdo sobre esa analogía.

Sam Altman, Elon Musk y la historia temprana de OpenAI

La conversación dedicó amplio espacio a la historia de OpenAI y al rol de Sam Altman. Hao recordó que en 2015 Altman publicó textos en los que describía a la superinteligencia como una de las mayores amenazas para la humanidad. Según la autora, ese lenguaje coincidía de forma muy estrecha con el discurso que Elon Musk utilizaba en la época, cuando advertía que la IA era “el mayor riesgo existencial” y la comparaba con “invocar al demonio”.

Hao sugirió que ese giro discursivo tuvo un objetivo estratégico. Dijo que Altman buscaba convencer a Musk de cofundar OpenAI y financiarla, y que el empresario efectivamente terminó involucrándose. Desde la perspectiva de Musk, añadió, existe la sensación de haber sido manipulado, algo que forma parte de la disputa judicial actual entre ambos.

La autora relató además que, cuando OpenAI decidió crear una entidad con fines de lucro, Ilya Sutskever y Greg Brockman consideraron inicialmente que Musk debía dirigirla. Sin embargo, según su reporte, Altman apeló personalmente a Brockman y lo convenció de que darle tanto poder a Musk sería riesgoso por su imprevisibilidad y exposición pública.

Esa maniobra, según Hao, habría sido decisiva para que Musk quedara fuera del control ejecutivo de la nueva estructura. De ahí surgió, dijo, parte de la enemistad profunda entre ambos.

Una figura que divide al ecosistema

Al ser consultada directamente sobre su opinión de Altman, Hao respondió que es una figura “muy controvertida”. Explicó que pocas veces ha visto en la industria tecnológica un nivel de polarización tan alto alrededor de un líder, con personas que lo consideran el gran visionario de su generación y otras que lo ven como manipulador, abusivo y mentiroso.

Según Hao, esa evaluación depende en gran medida de si el observador comparte o no la visión de futuro que Altman intenta imponer. Quienes coinciden con ella suelen admirar su capacidad para narrar, persuadir, reclutar talento y movilizar recursos. Quienes no, sienten que fueron utilizados para un proyecto con el que nunca estuvieron realmente de acuerdo.

En ese punto citó a Dario Amodei, hoy CEO de Anthropic, como ejemplo de una ruptura nacida de ese desencuentro. Según la periodista, Amodei terminó convencido de que Altman aprovechó sus capacidades para avanzar una visión que él no compartía, lo que dejó una sensación de manipulación entre varios ex directivos y ex investigadores.

La fragmentación del ecosistema, añadió, no es casual. Mencionó que Musk fundó xAI, Amodei creó Anthropic, Sutskever lanzó Safe Superintelligence y Mira Murati pasó a Thinking Machines Lab. En su lectura, muchos de estos líderes quieren crear IA “a su imagen” y por eso acaban chocando entre sí.

Por qué Hao habla de “imperios de IA”

La noción central del libro de Hao es que estas compañías operan como imperios modernos. Su argumento compara a los gigantes de IA con viejas estructuras imperiales que reclamaban recursos ajenos, explotaban trabajo, monopolizaban el conocimiento y justificaban su expansión como una misión civilizatoria.

Aplicado al presente, eso significa, según dijo, apropiarse de datos de usuarios y propiedad intelectual de artistas, escritores y creadores para entrenar modelos. También implica la expansión territorial asociada a centros de datos y supercomputadoras, que consumen tierra, agua y energía a gran escala.

En el frente laboral, sostuvo que la industria depende de una enorme fuerza de trabajo invisibilizada. Mencionó a cientos de miles de contratistas en distintas partes del mundo que etiquetan datos, corrigen respuestas y enseñan a los modelos cómo comportarse. A la vez, dijo, esas mismas compañías diseñan herramientas destinadas a automatizar el empleo y debilitar derechos laborales.

El tercer rasgo imperial, en su visión, es el control de la producción de conocimiento. Hao acusó al sector de proyectar la idea de que solo sus empresas entienden realmente la tecnología, mientras financian gran parte de la investigación mundial y censuran a quienes producen evidencia incómoda.

Gaslighting, censura y acceso mediático

Hao dijo abiertamente que la industria “gaslightea” al público. Para explicar esa acusación, comparó la situación con un escenario hipotético en el que la mayoría de los científicos climáticos dependieran financieramente de petroleras. A su juicio, cuando las empresas de IA financian y emplean a buena parte de los investigadores, también moldean las preguntas que se pueden hacer y las respuestas que circulan.

Como ejemplo, mencionó el caso de Timnit Gebru y Margaret Mitchell en Google. Recordó que ambas fueron apartadas luego de impulsar investigaciones críticas sobre los grandes modelos de lenguaje. Para Hao, ese episodio mostró cómo las compañías pueden bloquear hallazgos que chocan con su agenda empresarial.

También habló de presiones sobre periodistas y críticos. Afirmó que OpenAI llegó a citar judicialmente a detractores en el contexto de su transformación de entidad sin fines de lucro a con fines de lucro, algo que describió como una mezcla de intimidación y búsqueda de información sobre redes de oposición.

En el mismo sentido, criticó el uso del acceso como herramienta de disciplina mediática. Relató que OpenAI dejó de colaborar con ella tras un perfil crítico en 2020 y que, aunque más tarde se reabrieron ciertos canales, finalmente la empresa se negó a participar en su libro. Hao sostuvo que entregó unas 40 páginas de solicitudes de comentario y más de un mes para responder, pero no obtuvo respuesta.

La crisis interna que llevó al despido y regreso de Altman

Otro tramo relevante de la entrevista se centró en la breve salida de Sam Altman como CEO de OpenAI. Hao dijo haber reconstruido ese episodio con unas seis o siete fuentes que participaron directamente o hablaron con personas involucradas en la decisión.

Según explicó, Ilya Sutskever comenzó a alarmarse por lo que consideraba un liderazgo caótico de Altman y acudió a Helen Toner, miembro independiente de la junta, para compartir sus preocupaciones. Más adelante, Mira Murati también transmitió inquietudes similares sobre el efecto de Altman en la colaboración interna y la toma de decisiones.

Hao describió un contexto de crecimiento extremo tras el lanzamiento de ChatGPT, una herramienta que OpenAI no esperaba que explotara de la forma en que lo hizo. Dijo que la empresa enfrentó caídas de servidores, contrataciones apresuradas y despidos repentinos, con personas que simplemente desaparecían de Slack sin aviso claro para sus colegas.

En ese ambiente, Sutskever y Murati consideraban que Altman no estaba reduciendo el desorden, sino agravándolo. La junta independiente, añadió, también detectó inconsistencias en otras áreas, como la estructura del OpenAI Startup Fund, que según Hao terminó siendo en realidad el fondo de Altman. Todo eso desembocó en la decisión de destituirlo rápidamente, sin una preparación política suficiente, algo que desató la reacción de Microsoft, empleados e inversionistas y facilitó su regreso pocos días después.

Trabajo precario, automatización y nuevas desigualdades

Hao reconoció que la automatización asociada a la IA ya está teniendo impacto real sobre el empleo. Sin embargo, rechazó la visión simplista de que todo depende de una inteligencia creciente e inevitable. Según ella, la pérdida de puestos ocurre también porque las empresas eligen mejorar ciertas capacidades específicas y porque otros ejecutivos deciden despedir personal aunque las herramientas no sustituyan plenamente ese trabajo.

Citó el caso de Klarna, cuyo CEO Sebastian Siemiatkowski dijo que la compañía pasó de unas 6.000 personas a menos de 3.000 en dos o tres años, mientras duplicó ingresos y frenó contrataciones gracias a ganancias de eficiencia apoyadas por IA. También sostuvo que la IA ya gestiona cerca del 70% de sus conversaciones de servicio al cliente, aunque la empresa busca mantener atención humana premium como un diferencial de valor.

Para Hao, el problema es más profundo. Argumentó que la automatización vacía escalones enteros de la carrera profesional. Desaparecen puestos de entrada y niveles medios, mientras se crean algunos roles de muy alta especialización y muchos otros mucho peores, ligados al etiquetado de datos y entrenamiento de modelos.

En ese punto citó un reportaje de New York Magazine sobre trabajadores altamente calificados, incluso graduados, doctores y directores premiados, que terminaron haciendo tareas de data annotation para sostener a sus familias. Según describió, son labores inestables, atomizadas y deshumanizantes, donde la gente espera en sus computadoras a que aparezcan tareas en Slack para ganar todo lo posible en ventanas breves de trabajo.

Centros de datos, agua, energía y salud pública

Hao extendió la crítica a la infraestructura física que sostiene la IA generativa. Afirmó que los grandes centros de datos ya están generando conflictos ambientales y de salud pública en comunidades vulnerables, muchas de ellas sin capacidad real para decidir sobre esos proyectos.

Mencionó el caso de Abilene, Texas, donde uno de los mayores proyectos de OpenAI dentro de la iniciativa Stargate ocuparía un área comparable a Central Park, albergaría 1 millón de chips y requeriría más de un gigavatio de energía, equivalente a más del 20% del consumo eléctrico de Nueva York, según explicó en la conversación.

También habló de una instalación de Meta en Louisiana, que describió como cuatro veces más grande que la de Abilene y con una demanda eléctrica cercana a la mitad del promedio de Nueva York. En su argumento, la llegada de estas infraestructuras eleva tarifas, complica la confiabilidad de la red y presiona recursos de agua dulce en regiones que a veces ya sufren sequía.

El ejemplo más duro que ofreció fue Memphis, Tennessee, donde Elon Musk construyó Colossus para entrenar Grok con 35 turbinas de gas metano. Según Hao, comunidades negras y latinas de clase trabajadora descubrieron la magnitud del proyecto cuando comenzaron a percibir olores similares a una fuga de gas en sus hogares. Aseguró que esa infraestructura agravó problemas respiratorios en una zona que ya padecía una larga historia de racismo ambiental.

Qué propone Hao frente al poder de la industria

Aunque el tono de su crítica fue severo, Hao insistió en que no propone eliminar la IA. Su planteamiento es otro: romper los “imperios” y redirigir el desarrollo hacia sistemas más específicos, eficientes y socialmente útiles. Para explicarlo, usó una analogía simple. Dijo que la IA es como el transporte: no toda solución debe ser un cohete si a veces basta una bicicleta.

Como ejemplo de “bicicleta de IA”, mencionó AlphaFold de DeepMind, un sistema orientado a predecir el plegamiento de proteínas a partir de secuencias de aminoácidos. Señaló que herramientas de ese tipo usan conjuntos de datos más curados, consumen menos recursos y pueden ofrecer beneficios extraordinarios, como acelerar el descubrimiento de fármacos.

Su propuesta política también fue concreta. Afirmó que ya hay señales de resistencia social, con protestas contra centros de datos, demandas de artistas y escritores por propiedad intelectual, litigios de familias afectadas por chatbots y encuestas donde el 80% de los estadounidenses favorece regular la industria.

Para la autora, la clave está en no dejar que todo le salga “perfectamente” a las grandes firmas tecnológicas si la sociedad no está de acuerdo con su rumbo. Eso incluye cuestionar políticas de adopción en escuelas y empresas, discutir el uso de datos personales y apoyar marcos regulatorios que limiten la extracción unilateral de valor.

Hao cerró con una idea que resume su posición. La IA sí puede tener utilidad, incluso una gran utilidad. Pero el modelo político y económico que hoy domina su producción, dijo, está generando daños profundos y ampliando la distancia entre quienes ya tienen poder y quienes cargan con los costos de ese progreso.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín