Por Canuto  

La ofensiva legal de Elon Musk contra OpenAI abrió una nueva etapa de escrutinio sobre cómo la firma equilibró su misión original de desarrollar AGI para beneficio de la humanidad con la presión de lanzar productos y escalar su negocio. Testimonios en un tribunal federal de California reavivaron dudas sobre seguridad, procesos internos y el poder real de la junta para supervisar a Sam Altman.
***

  • Una exintegrante del equipo de preparación para AGI dijo que OpenAI pasó de centrarse en investigación y seguridad a priorizar productos.
  • El caso recordó el despliegue de GPT-4 en India a través de Bing antes de una revisión interna, un episodio que ya había generado tensión con la junta.
  • Una exmiembro del directorio aseguró que Sam Altman no fue plenamente transparente con la junta, debilitando la supervisión de la entidad sin fines de lucro.

 


La demanda de Elon Musk contra OpenAI volvió a poner bajo presión el historial de seguridad y la estructura de gobernanza de la empresa. En una audiencia celebrada en un tribunal federal de Oakland, California, exintegrantes de la organización describieron tensiones entre la misión fundacional del laboratorio y su evolución hacia una compañía cada vez más enfocada en productos comerciales.

El caso es relevante mucho más allá de una disputa entre figuras del sector tecnológico. En el centro del debate aparece una pregunta clave para la industria de la inteligencia artificial: si una empresa que promete priorizar la seguridad por encima de las ganancias puede mantener ese principio cuando compite por lanzar modelos avanzados a gran escala.

Según reportó TechCrunch, parte del esfuerzo legal de Musk para desmontar OpenAI depende de demostrar si la subsidiaria con fines de lucro fortaleció o debilitó la misión original del laboratorio. Esa misión fue presentada desde sus inicios como el desarrollo de inteligencia artificial general, o AGI, para beneficio de toda la humanidad.

Durante la audiencia, Rosie Campbell, exempleada y también exmiembro de la junta, dijo que la presión por llevar productos de IA al mercado afectó el compromiso de la empresa con la seguridad. Campbell se unió al equipo de preparación para AGI en 2021 y dejó OpenAI en 2024, después de que su grupo fuera disuelto.

La exinvestigadora explicó que, cuando ingresó a la organización, el ambiente estaba mucho más volcado hacia la investigación y resultaba común que el personal hablara de AGI y de los problemas de seguridad asociados. Con el tiempo, según su testimonio, OpenAI se convirtió en una organización más centrada en productos.

Bajo contrainterrogatorio, Campbell reconoció que probablemente se requería financiamiento significativo para alcanzar la meta de construir AGI. Aun así, sostuvo que crear un sistema superinteligente sin medidas de seguridad adecuadas no encajaría con la misión de la organización a la que ella se había unido originalmente.

Campbell también describió un incidente que consideró una señal de alerta. Señaló que Microsoft desplegó una versión del modelo GPT-4 en India a través de su buscador Bing antes de que ese uso hubiera sido evaluado por la Deployment Safety Board, o DSB, de OpenAI.

De acuerdo con su relato, el modelo en sí no presentaba un riesgo especialmente alto en ese caso concreto. Sin embargo, recalcó que el punto importante era sentar precedentes sólidos conforme la tecnología se vuelve más poderosa, de modo que los procesos de seguridad existan y se sigan de manera confiable.

Los abogados de OpenAI, por su parte, buscaron subrayar que la compañía sigue mostrando señales públicas de trabajo en seguridad. Durante el interrogatorio hicieron que Campbell reconociera que, en su opinión especulativa, el enfoque de seguridad de OpenAI es superior al de xAI, la empresa de inteligencia artificial fundada por Musk y adquirida por SpaceX a comienzos de este año.

OpenAI publica evaluaciones de sus modelos y comparte de forma pública un marco de seguridad. No obstante, la compañía declinó comentar cuál es su enfoque actual en materia de alineación de AGI, un punto especialmente sensible dado el peso que esa idea tiene en su narrativa fundacional.

La firma sí ha hecho cambios recientes en su estructura de preparación. Su actual jefe de preparación, Dylan Scandinaro, fue contratado desde Anthropic en febrero. Sam Altman llegó a decir que esa incorporación le permitiría dormir mejor por las noches.

El conflicto con la junta y el regreso de Altman

El despliegue de GPT-4 en India fue presentado como una de las alertas que terminaron influyendo en la breve destitución de Altman en 2023. Ese episodio ocurrió luego de que varios empleados, entre ellos el entonces científico jefe Ilya Sutskever y la entonces CTO Mira Murati, manifestaran preocupaciones sobre el estilo de gestión de Altman.

En la audiencia también declaró Tasha McCauley, quien integraba la junta en ese momento. Su testimonio se concentró en las dudas que existían dentro del directorio sobre si Altman estaba siendo lo suficientemente franco con la junta como para que la estructura híbrida de OpenAI pudiera funcionar correctamente.

McCauley habló de un patrón de conductas que ya había sido ampliamente reportado. Entre otros puntos, dijo que Altman engañó a la junta en un episodio relacionado con Helen Toner, otra integrante del directorio que había publicado un documento con críticas implícitas a la política de seguridad de OpenAI.

Según McCauley, Altman mintió a otro miembro de la junta sobre la intención de ella de destituir a Toner. También afirmó que el CEO no informó al directorio sobre la decisión de lanzar ChatGPT públicamente y que los miembros tenían inquietudes por la falta de divulgación de posibles conflictos de interés.

La exdirectiva resumió el problema como una crisis de supervisión. Explicó ante el tribunal que la junta sin fines de lucro tenía el mandato de supervisar a la entidad con fines de lucro que operaba debajo de ella, pero que su principal mecanismo para hacerlo estaba siendo socavado por la falta de confianza en la información recibida.

Ese conflicto estalló en un momento delicado para la compañía. La salida de Altman coincidió con una oferta de compra de acciones para empleados, y McCauley dijo que, cuando el personal de OpenAI comenzó a alinearse con el CEO y Microsoft trabajó para restaurar el statu quo, la junta terminó retrocediendo y los miembros opuestos a Altman renunciaron.

La tesis de Musk y la discusión sobre regulación

El aparente fracaso de la junta sin fines de lucro para influir de forma efectiva sobre la organización comercial toca directamente el corazón del caso impulsado por Musk. Su argumento apunta a que la evolución de OpenAI, desde un laboratorio de investigación hasta una de las mayores empresas privadas del mundo, rompió el entendimiento fundacional entre sus creadores.

Para reforzar esa línea, David Schizer, exdecano de la Facultad de Derecho de Columbia y testigo experto pagado por el equipo legal de Musk, respaldó varias de las preocupaciones expuestas en la audiencia. Su intervención no se centró solo en resultados, sino en la importancia de respetar los procesos internos de seguridad.

Schizer sostuvo que OpenAI ha enfatizado que una parte clave de su misión es la seguridad y que priorizaría la seguridad por encima de las ganancias. Desde esa perspectiva, argumentó que si algo debe pasar por una revisión de seguridad, entonces esa revisión debe ocurrir, porque lo que importa es la cuestión del proceso.

El trasfondo del caso también conecta con una discusión regulatoria más amplia. McCauley advirtió que las fallas de gobernanza interna en OpenAI deberían servir como argumento para adoptar una regulación gubernamental más fuerte sobre la IA avanzada, especialmente si decisiones con implicaciones para el bien público terminan concentradas en un solo CEO.

Esa observación tiene peso en un momento en que la inteligencia artificial ya está profundamente integrada en empresas con fines de lucro. Lo que ocurra en OpenAI puede influir en cómo inversionistas, reguladores y otras firmas del sector entienden la relación entre innovación acelerada, controles internos y responsabilidad pública.

Por ahora, la audiencia no cierra el debate, pero sí deja algo claro. La disputa entre Musk y OpenAI ya no gira solamente en torno a rivalidades personales o a la estructura corporativa de una startup convertida en gigante tecnológico, sino a una cuestión más básica: si la promesa de desarrollar AGI de forma segura puede sostenerse cuando el negocio y la velocidad del mercado empujan en otra dirección.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín