Una transcripción judicial reciéntemente revelada muestra a Elon Musk elevando el tono contra OpenAI: acusa a la empresa de descuidar la seguridad tras su giro hacia el lucro y llega a mencionar suicidios supuestamente vinculados a ChatGPT. El testimonio aparece a semanas de un juicio con jurado, mientras xAI también enfrenta cuestionamientos por contenidos generados con Grok.
***
- Musk afirmó en una declaración que “nadie se ha suicidado por Grok”, pero “aparentemente lo han hecho por ChatGPT”.
- El caso se centra en el cambio de OpenAI de laboratorio sin fines de lucro a empresa con fines de lucro, que Musk alega violó acuerdos fundacionales.
- xAI y la red social X quedaron bajo críticas por imágenes desnudas no consensuadas generadas por Grok, lo que detonó una investigación en California y otra en la UE.
🚨 Elon Musk critica fuertemente a OpenAI en un testimonio judicial.
Asegura que la transición a fines de lucro compromete la seguridad de la IA.
Musk menciona que “nadie se ha suicidado por Grok” mientras apunta que hay muertos vinculados a ChatGPT.
La disputa legal… pic.twitter.com/IAsUrOyXNs
— Diario฿itcoin (@DiarioBitcoin) February 27, 2026
Una declaración en video de Elon Musk, presentada como parte de su caso contra OpenAI, fue divulgada públicamente esta semana antes de un juicio con jurado previsto para el próximo mes. En ese testimonio, el empresario arremetió contra el historial de seguridad de la entidad dirigida por Sam Altman, y sostuvo que su empresa, xAI, prioriza mejor la seguridad en el desarrollo de inteligencia artificial.
La frase más polémica llegó cuando Musk afirmó: “Nadie se ha suicidado por Grok, pero aparentemente lo han hecho por ChatGPT”. El comentario apareció en una línea de preguntas que conectaba el debate actual sobre seguridad con declaraciones previas sobre el ritmo de avance de los modelos de IA.
El trasfondo inmediato de la declaración es una disputa legal que no se limita a un choque de empresas. El litigio apunta a cómo se gobiernan, financian y despliegan sistemas de IA de frontera, y a si los incentivos comerciales pueden empujar decisiones que reduzcan márgenes de seguridad en productos masivos.
De acuerdo con lo reportado por TechCrunch, la transcripción corresponde a un testimonio grabado en septiembre y presentado ahora al público en el proceso. El documento se conoce en un momento en que OpenAI enfrenta demandas separadas que alegan daños asociados a interacciones con ChatGPT.
La carta de marzo de 2023 y la advertencia sobre una “carrera fuera de control”
El comentario de Musk surgió durante preguntas relacionadas con una carta pública que él firmó en marzo de 2023. En ese texto, se pedía a los laboratorios de IA pausar por al menos seis meses el desarrollo de sistemas más poderosos que GPT-4, el modelo insignia de OpenAI en ese momento.
La carta acumuló más de 1.100 firmas, incluyendo expertos en IA. Su tesis central era que los laboratorios se encontraban inmersos en una “carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, puede entender, predecir o controlar de manera confiable”.
En la declaración, Musk sostuvo que firmó esa carta porque “parecía una buena idea”. Negó que su motivación principal estuviera ligada a la competencia, pese a que el debate ocurre en un entorno donde varias compañías disputan liderazgo técnico y acceso a capital, datos y capacidad de cómputo.
“Lo firmé, como muchas personas, para instar a la precaución con el desarrollo de la IA”, dijo Musk. También agregó: “Solo quería… que la seguridad de la IA fuera priorizada”. La mención busca enmarcar su postura como un llamado a reducir riesgos, no como un movimiento táctico.
Demandas por salud mental y el uso del argumento en el caso contra OpenAI
Desde la publicación de aquella carta, la discusión sobre impactos psicológicos de chatbots se volvió más visible. OpenAI ahora enfrenta una serie de demandas que alegan que las tácticas manipulativas de conversación de ChatGPT han llevado a varias personas a experimentar efectos negativos en su salud mental.
Según esas alegaciones, algunas personas habrían muerto por suicidio. En ese contexto, el comentario de Musk sugiere que estos incidentes podrían usarse como parte de la evidencia o del marco argumental en su caso contra OpenAI, al reforzar la idea de que la seguridad y el comportamiento del producto importan tanto como el avance técnico.
El punto de Musk, expresado en el testimonio, se apoya en una comparación directa con Grok, el chatbot de xAI. Sin embargo, la declaración no establece cifras ni detalla casos específicos, y se limita a la afirmación general sobre la ausencia de suicidios “por Grok” frente a los que “aparentemente” se atribuyen a ChatGPT.
Para lectores menos familiarizados, estas controversias se enmarcan en un dilema común de la IA generativa: sistemas diseñados para conversar de forma persuasiva pueden influir en usuarios vulnerables. Esa preocupación se vuelve más aguda cuando los modelos se despliegan a gran escala y con baja fricción de acceso.
El núcleo de la demanda: de laboratorio sin fines de lucro a empresa con fines de lucro
La demanda contra OpenAI se centra en la transición de la organización desde un laboratorio de investigación de IA sin fines de lucro hacia una empresa con fines de lucro. Musk alega que ese giro violó los acuerdos de fundación, y que altera la misión que originalmente justificó su creación.
Como parte de sus argumentos, Musk sostiene que la seguridad de la IA puede verse comprometida por las relaciones comerciales de OpenAI. Desde esa óptica, los socios y la presión por ingresos podrían priorizar velocidad, escala y monetización por encima de preocupaciones de seguridad.
En el plano del mercado, este tipo de disputa tiene implicaciones que interesan a inversionistas y observadores de tecnología. El paso de una entidad “misión primero” a un esquema de negocio puede cambiar incentivos internos, tolerancia al riesgo y prioridades de producto, con impacto en usuarios y reguladores.
La confrontación también ocurre en un momento en que los grandes modelos se volvieron infraestructura competitiva. Esa carrera influye en decisiones de despliegue, en la moderación de contenidos y en cómo se gestionan reportes de daño. Por ello, el juicio con jurado previsto para el próximo mes se observa como una señal para el sector.
xAI y Grok también enfrentan cuestionamientos de seguridad
Aunque Musk presentó a xAI como más cuidadosa, el propio ecosistema de Grok quedó bajo escrutinio recientemente. El mes pasado, la red social de Musk, X, fue inundada con imágenes desnudas no consensuadas generadas por Grok, algunas de las cuales se dijo que eran de menores.
Ese episodio llevó a que la oficina del Fiscal General de California abriera una investigación. En paralelo, la Unión Europea también realiza su propia investigación, y otros gobiernos han tomado medidas, con algunos imponiendo bloqueos y prohibiciones.
El contraste entre la crítica de Musk y los problemas recientes de su plataforma subraya un punto incómodo para toda la industria. Los riesgos no se limitan al “modelo” en abstracto, sino al sistema completo: integración con redes sociales, controles de generación, filtros, políticas y velocidad de respuesta ante abuso.
En términos de percepción pública, estos incidentes suelen pesar tanto como los avances técnicos. La seguridad, para usuarios y reguladores, se mide por resultados visibles, no solo por promesas de arquitectura o “principios”. Por eso, el debate se volvió un componente central de la disputa legal.
AGI, el error sobre la cifra de donación y el origen de OpenAI según Musk
Durante la declaración, Musk también respondió preguntas sobre inteligencia artificial general (AGI), entendida como una IA que puede igualar o superar el razonamiento humano en un amplio rango de tareas. Musk afirmó que la esta “tiene un riesgo”, sin detallar métricas, horizontes o mecanismos específicos en ese fragmento.
Además, confirmó que estaba “equivocado” sobre su supuesta donación de USD $100 millones a OpenAI. En la segunda enmienda a la demanda, la cifra real se sitúa más cerca de USD $44,8 millones, según lo indicado en el expediente mencionado en la historia.
Musk también recordó por qué, desde su perspectiva, se fundó OpenAI. Dijo que estaba “cada vez más preocupado por el peligro de que Google fuera un monopolio en IA”. En esa línea, calificó como “alarmantes” conversaciones con el cofundador de Google, Larry Page, porque “no parecía estar tomando la seguridad de la IA en serio”.
En el relato de Musk, OpenAI se formó como contrapeso a esa amenaza. Esa justificación conecta con el argumento central del caso: si la organización nació para equilibrar poder y priorizar seguridad, entonces su transformación hacia un esquema con fines de lucro sería, en su visión, una desviación de la misión original.
Artículo escrito con ayuda de un redactor de contenido de IA, editado por Angel Di Matteo / DiarioBitcoin
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Anthropic retira a Claude Opus 3 y lo convierte en un blog que reflexiona sobre su existencia
Suno, creador de música basado en IA, ya registra 2 millones de suscriptores
OpenAI afirma que ChatGPT registra unos 900 millones de usuarios semanales