Barry Diller salió en defensa de Sam Altman, pero su mensaje central fue otro: ante la cercanía de la AGI, la discusión ya no gira solo en torno a si los líderes de IA son confiables, sino a un salto tecnológico cuyos propios creadores no comprenden del todo.
***
- Barry Diller afirmó que considera a Sam Altman una persona decente y con buenos valores.
- El magnate sostuvo que, frente a la AGI, la confianza podría volverse irrelevante por la magnitud de lo desconocido.
- También pidió establecer barandillas de seguridad antes de que una fuerza de AGI actúe por sí misma.
Barry Diller, magnate de medios y presidente de IAC y Expedia Group, expresó públicamente su respaldo al CEO de OpenAI, Sam Altman, en un momento en que el directivo sigue bajo escrutinio por acusaciones pasadas de manipulación y conducta engañosa hechas por excolegas y antiguos integrantes de la junta. Sin embargo, su argumento principal no fue una defensa cerrada del ejecutivo, sino una advertencia más amplia sobre el desarrollo de la inteligencia artificial avanzada.
Durante una aparición en la conferencia Future of Everything de The Wall Street Journal, reseñada por TechCrunch, Diller respondió a una pregunta sobre si las personas deberían depositar su fe en Altman para garantizar que la inteligencia artificial beneficie a la humanidad. La conversación se centró en particular en la llamada Inteligencia General Artificial, o AGI, una forma teórica de IA que algún día podría superar a los humanos en cualquier tarea.
Para Diller, el foco del debate no debería quedarse en la confianza personal hacia Altman. Su postura fue que el verdadero problema está en la incertidumbre estructural que rodea a la AGI y en la posibilidad de que sus consecuencias escapen incluso a quienes hoy la están desarrollando.
Ese matiz resulta relevante para el ecosistema tecnológico y financiero. La carrera por la IA ya moviliza inversiones multimillonarias, redefine estrategias corporativas y alimenta expectativas de transformación económica, igual que ocurrió en otros ciclos de innovación disruptiva. Pero Diller sugirió que, en este caso, el nivel de desconocimiento podría ser mucho mayor que en revoluciones tecnológicas previas.
La confianza, según Diller, no resuelve el problema de fondo
En su intervención, Diller dejó claro que no considera a Altman una figura indigna de confianza. Por el contrario, dijo que lo ve como alguien sincero en sus objetivos y lo describió como “una persona decente con buenos valores”. Aun así, insistió en que esa evaluación personal no resuelve la cuestión central.
Según sus palabras, “uno de los grandes problemas de la IA es que va mucho más allá de la confianza”. Añadió que “puede ser que la confianza sea irrelevante porque las cosas que están ocurriendo son una sorpresa para las personas que están haciendo que esas cosas ocurran”. Con esa frase, Diller apuntó a un riesgo que ya aparece de forma recurrente en el debate sobre IA: la posibilidad de que sistemas muy avanzados produzcan efectos imprevistos incluso para sus propios creadores.
El ejecutivo explicó que ha pasado mucho tiempo con varias personas involucradas en la creación de inteligencia artificial y aseguró que ellas mismas muestran una sensación de asombro ante lo que está ocurriendo. “Es lo gran desconocido. No lo sabemos. Ellos no lo saben”, afirmó.
La observación es importante porque desplaza la discusión desde la ética individual de un líder empresarial hacia la gobernanza de una tecnología emergente. En otras palabras, incluso si quienes están al mando actúan de buena fe, Diller considera que el desafío sigue intacto si nadie puede anticipar plenamente las consecuencias del sistema que se está construyendo.
Una tecnología que, a su juicio, cambiará casi todo
Diller planteó que la humanidad ya se ha embarcado en algo que “va a cambiar casi todo”. En ese contexto, minimizó la relevancia de debatir si las enormes inversiones en IA terminarán justificándose desde una perspectiva estrictamente financiera. Dijo que eso le da igual porque no está invertido en ello, pero dejó claro que, a su juicio, el avance tecnológico continuará de cualquier manera.
Esa afirmación conecta con la realidad actual del mercado tecnológico, donde grandes empresas, fondos y laboratorios compiten por posicionarse en la siguiente fase de la IA. Aunque Diller no detalló montos ni actores concretos, su comentario subraya que el impulso detrás de esta carrera no parece depender solo del rendimiento económico inmediato, sino también de una lógica de inevitabilidad tecnológica.
Al mismo tiempo, sostuvo que la mayoría de las personas que lideran esta ofensiva son buenos custodios. Esa apreciación incluyó de nuevo a Altman, a quien volvió a atribuir sinceridad personal. No obstante, evitó identificar a qué líderes de IA considera insinceros, aunque sí dejó constancia de que no extiende esa misma confianza a todos por igual.
El punto de tensión en su discurso fue precisamente ese. Diller no ofreció una condena moral contra quienes impulsan la IA, pero tampoco formuló una visión tranquilizadora. Más bien trazó una línea clara entre la integridad de los líderes y la falta de control sobre el resultado final del proceso tecnológico.
La AGI estaría cerca y exigiría barandillas de seguridad
En el tramo más contundente de sus declaraciones, Diller afirmó que el problema real no es la gestión de Altman o de otros ejecutivos, sino el hecho de que nadie sabe qué puede ocurrir una vez que se alcance la AGI. “Aún no estamos ahí, pero nos estamos acercando cada vez más, más rápido y más rápido”, señaló.
La idea de AGI se refiere a un sistema con capacidades generales comparables o superiores a las humanas en una amplia gama de tareas. Aunque sigue siendo un concepto teórico y no un logro confirmado, el solo hecho de que empresarios y tecnólogos lo discutan como una posibilidad cercana ha intensificado las advertencias sobre regulación, seguridad y alineación.
Frente a ese panorama, Diller dijo que la sociedad debe pensar en “barandillas de seguridad”. La expresión apunta a mecanismos de contención, supervisión y límites que reduzcan el riesgo de que sistemas altamente capaces operen sin control suficiente. En el debate actual sobre IA, ese tipo de medidas suele abarcar desde pruebas de seguridad y controles de acceso hasta marcos regulatorios y protocolos internacionales.
Su advertencia fue todavía más lejos. Según explicó, si los humanos no diseñan esas barandillas, la alternativa es que “otra fuerza, una fuerza de AGI, lo hará por sí misma”. Y remató con una frase que resume el tono de alarma de su intervención: “una vez que eso ocurra, una vez que desates eso, no hay vuelta atrás”.
Un respaldo personal a Altman en medio de un debate mucho más amplio
La relevancia de las declaraciones también está en el contexto personal y empresarial. Diller es cercano a Sam Altman, por lo que su defensa tiene peso dentro del entorno de poder que rodea a OpenAI y al ecosistema de IA en Estados Unidos. Aun así, su mensaje no funcionó como una absolución total del sector, sino como una advertencia de que la confianza interpersonal podría ser insuficiente ante una tecnología de alcance sistémico.
La fuente original, TechCrunch, señaló que Diller respondió a estas preguntas en medio de reportes recientes que reavivaron cuestionamientos sobre la conducta de Altman. En ese marco, el magnate optó por separar dos planos: por un lado, su juicio favorable sobre la personalidad y valores del CEO de OpenAI; por otro, su inquietud ante un proceso tecnológico que podría desbordar cualquier intención inicial.
Ese enfoque ayuda a entender por qué el debate sobre IA se ha vuelto tan complejo para gobiernos, empresas e inversionistas. La cuestión ya no es solo quién dirige los laboratorios o qué compañía va ganando la carrera, sino qué ocurre si el desarrollo avanza más rápido que la capacidad institucional de comprenderlo y controlarlo.
Por eso, aunque Diller se mostró confiado en la buena fe de Altman, su conclusión fue esencialmente preventiva. Si la AGI se acerca con la velocidad que él percibe, entonces la discusión ya no debería limitarse a reputaciones individuales. Debería concentrarse en cómo construir límites antes de enfrentar una fuerza que, según advirtió, podría no ofrecer una segunda oportunidad.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
AltCoins
Virtuals Protocol ($VIRTUAL) repunta 17,79% con volumen récord el 6 de mayo de 2026
Empresas
Anthropic creció 80 veces y su CEO admite que ya no puede seguir el ritmo
IA
Nueva IA traduce instrucciones químicas y propone la mejor ruta para construir moléculas
Empresas