Por Canuto  

El enfrentamiento legal entre Elon Musk y OpenAI sumó un nuevo capítulo en California, donde el empresario advirtió ante el jurado que la inteligencia artificial podría convertirse tanto en la mayor herramienta de la humanidad como en una amenaza existencial. Su testimonio reactivó el debate sobre la misión original de OpenAI, la seguridad de la IA y el giro comercial que hoy cuestiona en tribunales.

***

  • Elon Musk declaró que la IA “podría matarnos a todos” si avanza sin suficiente supervisión.
  • El multimillonario sostiene que OpenAI fue fundada como una organización sin fines de lucro para beneficiar a la humanidad y contrarrestar a Google.
  • OpenAI rechaza las acusaciones y afirma que Musk solo objetó su rumbo después del éxito global de ChatGPT.

 


El juicio entre Elon Musk y OpenAI entró en una fase clave esta semana en Oakland, California, con el propio fundador de Tesla y SpaceX subiendo al estrado para defender su versión sobre los orígenes y la misión de la compañía.

Durante su testimonio, Musk advirtió que la inteligencia artificial (IA) podría impulsar una era de prosperidad sin precedentes, pero también convertirse en un riesgo extremo para la humanidad.

La declaración más llamativa llegó cuando afirmó ante el tribunal que la IA “podría matarnos a todos”. Musk añadió que el objetivo debería ser evitar un desenlace comparable al de Terminator y aspirar, en cambio, a una visión más optimista como la de Star Trek. Con esa frase, trasladó el juicio de una disputa corporativa a una batalla sobre el rumbo ético y estratégico de la tecnología más influyente del momento.

El caso enfrenta a Musk con Sam Altman, CEO de OpenAI, y también incluye a Greg Brockman, presidente de la organización. El núcleo de la demanda es la acusación de que OpenAI incumplió la promesa original de mantenerse como una entidad sin fines de lucro orientada al beneficio de toda la humanidad.

OpenAI rechaza esas afirmaciones y ha descrito la demanda como infundada. La empresa sostiene que Musk comenzó a objetar el modelo y la evolución de OpenAI solo después de que ChatGPT detonara el auge global de la IA generativa y después de que el propio multimillonario lanzara xAI como competidor en 2023.

La tesis de Musk sobre el origen de OpenAI

Según Musk, OpenAI fue concebida en 2015 como un contrapeso a Google. En el tribunal explicó que su preocupación se intensificó tras una conversación con Larry Page durante el verano de ese año. De acuerdo con su relato, el cofundador de Google mantenía una visión muy optimista sobre el desarrollo de la IA, algo que para Musk minimizaba riesgos que él considera profundos y reales.

Musk dijo que Page lo llamó “especista” por favorecer a los humanos por encima de posibles formas de vida digital futuras. A partir de ese episodio, aseguró, tomó forma la idea de crear una alternativa de código abierto y sin fines de lucro que equilibrara el poder de las grandes tecnológicas en una carrera que ya parecía acelerarse.

Durante su testimonio, Musk insistió en que pudo haber creado OpenAI como una firma comercial, pero eligió no hacerlo. También se atribuyó un rol central en la fundación del proyecto. Dijo que ideó el nombre, reclutó a personas clave, aportó conocimientos y proporcionó la financiación inicial. En el juicio se presentó además la carta fundacional de 2015, donde se establecía que OpenAI buscaría desarrollar tecnología de código abierto para el beneficio público y no para la ganancia privada de individuos.

El empresario también aclaró que no se oponía a una subsidiaria pequeña con fines de lucro, siempre que, en sus palabras, “la cola no moviera al perro”. Esa frase resumió su posición ante el jurado: el componente comercial podía existir, pero no debía dominar ni redefinir la misión benéfica original.

Advertencias sobre seguridad y un futuro incierto

Más allá del debate legal, Musk aprovechó su paso por el estrado para reiterar su visión sobre la IA avanzada. Dijo que la tecnología puede volver a la humanidad mucho más próspera, pero al mismo tiempo traer consecuencias catastróficas si se desarrolla sin controles adecuados. Recurrió a referencias culturales conocidas para simplificar el mensaje frente al jurado.

“Queremos estar en una película de Gene Roddenberry, como Star Trek, no tanto en una película de James Cameron, como Terminator”, dijo. También comparó el entrenamiento de sistemas de IA con la crianza de un hijo muy inteligente. Según explicó, llega un punto en el que ya no se puede controlar por completo, aunque sí se pueden intentar inculcar valores como honestidad, integridad y preocupación por la humanidad.

Musk sostuvo además que el momento en que la IA alcance o supere el nivel intelectual de cualquier humano podría llegar muy pronto. En su testimonio afirmó que, probablemente, eso ocurra tan pronto como el próximo año. En otra parte de su declaración señaló que ese día “se acerca rápido”, reforzando la idea de que la ventana para actuar en materia de seguridad podría ser limitada.

Ese enfoque conecta con otra de sus empresas, Neuralink. Musk dijo en la corte que el objetivo de largo plazo de la firma de interfaces cerebro-computadora está relacionado con la seguridad de la IA. Su argumento es que, si los humanos logran una relación más estrecha o una simbiosis con sistemas inteligentes, aumentan las probabilidades de un futuro en el que la IA resulte positiva para la humanidad.

La defensa de OpenAI y el papel de Microsoft

La respuesta del otro lado fue directa. Los abogados de OpenAI plantearon ante el jurado que el caso no gira sobre principios, sino sobre resentimiento empresarial. Según el abogado William Savitt, “estamos aquí porque el Sr. Musk no se salió con la suya en OpenAI”. La defensa sostiene que Musk renunció, anticipó que la empresa fracasaría y luego demandó cuando vio que tuvo éxito sin él.

OpenAI también alegó que Musk no defendió siempre una estructura puramente sin fines de lucro. En el juicio se mostraron correos internos que, según la empresa, reflejan que el multimillonario exploró alternativas con fines de lucro y solo apoyaba esa transición si mantenía el control. Además, la defensa dijo que Musk nunca entregó todos los fondos que había prometido a la organización, lo que obligó a OpenAI a buscar apoyo adicional.

Microsoft también figura como demandada. Musk acusa a la compañía de haber ayudado e instigado la supuesta desviación de OpenAI mediante sus inversiones y alianzas estratégicas. El abogado de Microsoft respondió que la reclamación excede el plazo de prescripción y recordó que Musk ya había escrito en 2020 que OpenAI estaba esencialmente capturada por Microsoft, lo que mostraría que conocía esa relación desde hace años.

La dimensión financiera y estructural del caso es relevante. CNBC reportó que Musk había buscado personalmente hasta USD $134.000.000.000 en daños, aunque ahora solicita que “todas las ganancias indebidamente obtenidas” vayan a la organización benéfica de OpenAI. Esa modificación no reduce el peso del proceso, que ya se considera una de las batallas legales más importantes del sector tecnológico en los últimos años.

Qué está en juego para la industria de IA

El litigio se sigue de cerca porque mezcla varios temas sensibles: la misión de los laboratorios de IA, el control corporativo, la seguridad tecnológica y la relación entre organizaciones sin fines de lucro y subsidiarias comerciales. En 2025, OpenAI completó una reestructuración en la que OpenAI Foundation pasó a ser la entidad sin fines de lucro con una participación accionaria de control sobre OpenAI Group PBC, el negocio con fines de lucro.

En ese momento, OpenAI Foundation poseía cerca de 26% de la entidad comercial, mientras Microsoft controlaba aproximadamente 27%, según la cobertura de CNBC. Del lado de Musk, xAI fue creada en marzo de 2023 como una corporación de beneficio público con fines de lucro. Luego abandonó esos compromisos de beneficio público en 2024, y más tarde fue fusionada con X en 2025 y este año con SpaceX.

No todos creen que el impacto jurídico del caso vaya a extenderse a toda la industria. La abogada y especialista en seguridad de IA Vivian Dong declaró a CNBC que no hay una política concreta de seguridad de IA ni una práctica industrial específica en juicio, por lo que las consecuencias probablemente se mantendrán en gran medida confinadas a OpenAI. Añadió que sería inusual que un tribunal ordenara los cambios estructurales que Musk busca en una demanda privada por presunto incumplimiento de un fideicomiso benéfico.

Aun así, el valor simbólico del proceso es enorme. El caso enfrenta a dos de los nombres más visibles de Silicon Valley, Musk y Altman, y obliga a revisar una pregunta que ya atraviesa a toda la economía digital: si las organizaciones que dicen desarrollar IA para el bien público pueden sostener esa promesa cuando el capital, la competencia y la escala global empujan en otra dirección.

El testimonio de Musk continuará, y después comparecerá Jared Birchall, ejecutivo vinculado a xAI y Neuralink, además de administrador del family office del empresario. Mientras el juicio avanza, el debate de fondo sigue abierto: si la inteligencia artificial será una fuerza de progreso compartido o una tecnología cuyo poder termine superando la capacidad humana para gobernarla.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín