Por Canuto  

Sam Altman aseguró que la superinteligencia podría llegar mucho antes de lo que buena parte del público cree, y defendió la necesidad de abrir desde ahora un debate sobre empleo, impuestos, ciberseguridad, salud, acceso al cómputo e instituciones capaces de repartir los beneficios de la IA.
***

  • Sam Altman dijo que OpenAI ve muy cerca un mundo con modelos extremadamente capaces y comparó el momento actual con los inicios del Covid.
  • La empresa planteó ideas como ampliar masivamente la infraestructura de IA, modernizar la base tributaria y crear medidas de transición laboral.
  • OpenAI sostuvo que la resiliencia ante riesgos en ciberseguridad y bioseguridad requerirá una respuesta social amplia, no solo controles dentro de los modelos.


OpenAI abrió un debate público de gran calado sobre el futuro de la inteligencia artificial con una conversación encabezada por su cofundador y CEO, Sam Altman, junto a Josh Aim, chief futurist de la empresa, y el investigador Adrien Akafe. El eje del encuentro fue la posibilidad de que sistemas mucho más capaces, incluso cercanos a la superinteligencia, transformen en pocos años la ciencia, el trabajo, la economía y la gobernanza.

Durante la conversación, Altman sostuvo que la velocidad del progreso sigue acelerándose y que la organización espera entrar pronto en un escenario de modelos “extremadamente capaces”. Aclaró que estas ideas no constituyen un plan final, sino un punto de partida para una discusión pública más amplia, justo antes de que las decisiones políticas y económicas se vuelvan ineludibles.

La conversación apareció bajo el título Sam Altman on Building the Future of AI, presentada por Chris Nicholson. Allí, los tres participantes describieron una mezcla de urgencia, optimismo y cautela frente a una tecnología que, según dijeron, ya superó parte de la capacidad de adaptación social e institucional.

Altman: el cambio ya empezó y el mundo aún no lo procesa

Altman explicó que la razón principal para abrir este debate ahora es simple: OpenAI cree que se acerca un periodo de varios años con modelos muy poderosos, no un único salto puntual. Según dijo, la organización podría estar equivocada o podría toparse con límites técnicos, pero, con base en lo que observa internamente, espera un crecimiento continuo de capacidades con efectos profundos sobre la economía y la vida cotidiana.

En ese punto, defendió la necesidad de dar tiempo al público, a los líderes y al sistema político para discutir ideas antes de verse obligados a decidir bajo presión. A su juicio, cuando la sociedad dispone de más tiempo para debatir, tiene más probabilidades de tomar mejores decisiones.

Para ilustrar la sensación de urgencia, Altman recordó los primeros días de 2020, cuando investigadores de OpenAI comenzaron a preocuparse por Covid antes de que la mayoría del mundo reaccionara. Narró una caminata nocturna por San Francisco en la que veía bares y restaurantes llenos mientras él ya intuía un cambio inminente. Dijo que hoy siente algo parecido: los modelos ya alcanzaron cierto nivel, pero la sociedad todavía no los ha asimilado.

Ese diagnóstico fue reforzado por Adrien Akafe, quien contó que dentro del grupo de investigación muchos científicos pasaron en meses de escribir la mayor parte de su código a delegar gran parte de esa tarea en sistemas de IA. Según planteó, esa experiencia cotidiana dentro del laboratorio ayudó a trasladar a los equipos de política una sensación concreta de velocidad y urgencia.

La promesa económica y científica de una IA mucho más capaz

Altman insistió en que las ganancias potenciales son tan grandes que deberían ocupar más espacio en la conversación pública. Entre ellas mencionó la posibilidad de concentrar en un año una década de progreso científico, curar muchas enfermedades, desarrollar medicina personalizada, descubrir nuevos materiales para energía barata y segura, e incluso permitir que cualquier persona con una idea de startup pueda apoyarse en IA para implementarla.

También habló de usos más cotidianos y de consumo, como videojuegos personalizados y software construido a medida. En su visión, una IA más potente ampliaría el abanico de posibilidades para individuos, científicos y emprendedores, al tiempo que ofrecería nuevas herramientas para mitigar parte de sus propios riesgos.

Josh Aim complementó esa visión con una idea social más amplia: durante décadas, dijo, las sociedades han aspirado a garantizar vivienda, salud, electricidad y otras necesidades básicas para todos, pero el costo ha sido un obstáculo. A su juicio, la superinteligencia podría reducir drásticamente ese costo y abrir un camino real hacia beneficios más universales.

Con todo, Aim recalcó que quienes desarrollan esta tecnología tienen una responsabilidad especial para que no termine concentrando riqueza solo en las élites. El objetivo, añadió, debe ser que trabajadores, clase media y personas de países de bajos ingresos puedan beneficiarse de verdad de la nueva ola tecnológica.

Resiliencia, ciberseguridad y bioseguridad: una defensa por capas

Uno de los puntos más relevantes del encuentro fue el cambio de enfoque sobre seguridad. Akafe señaló que las pruebas y mitigaciones dentro de los modelos siguen siendo una capa esencial, pero ya no bastan por sí solas. La sociedad, dijo, debe prepararse para escenarios donde algunos actores apliquen menos controles o donde ocurran incidentes pese a las evaluaciones previas.

Como ejemplo, mencionó la idea de sistemas de reporte de incidentes inspirados en la aviación. La lógica sería documentar fallas y “casi accidentes” en una base compartida para que otros actores aprendan y adopten mitigaciones antes de que ocurra un problema mayor.

Altman amplió el argumento y afirmó que la vieja visión de una IA centralizada, controlada por unas pocas entidades perfectamente alineadas, ya no describe bien el futuro que viene. En su opinión, habrá muchas IA en circulación, incluidos modelos abiertos capaces de programar y, por extensión, de hallar vulnerabilidades. Por eso, dijo, no alcanzará con que un puñado de proveedores bloquee ciertos usos.

En ciberseguridad, defendió un enfoque de resiliencia social. La IA será muy buena encontrando fallas en software, afirmó, y eso exhibirá lo frágiles que son muchos sistemas actuales. La respuesta, entonces, debe ser usar IA para defender, fortalecer infraestructuras críticas y asistir primero a defensores confiables. Mencionó incluso el problema de sistemas viejos, como el software en plantas energéticas, que nadie entiende del todo desde hace décadas.

El mismo razonamiento, añadió, se aplica al ámbito biológico. Según Altman, llegará un punto en el que alguien use algún modelo para desarrollar patógenos, de modo que el mundo necesitará “escudos defensivos” compuestos por detección, respuesta rápida, tratamientos y capacidad institucional. Recalcó que esto no exime a los desarrolladores de construir sistemas seguros, pero sí obliga a pensar la defensa más allá del laboratorio.

Aim agregó que muchas de esas vulnerabilidades ya existen sin IA, pero esta eleva la urgencia. Citó las cadenas de suministro, la democracia y la infraestructura civil como áreas donde la inteligencia artificial podría tanto amplificar ataques como abaratar la detección y corrección de debilidades sistémicas.

Acceso al cómputo, nuevas instituciones y riesgo de concentración

Otro eje fuerte fue el acceso desigual al cómputo. Altman sostuvo que, si la infraestructura de IA sigue siendo escasa, el resultado natural será una concentración extrema de poder, porque las empresas y personas más ricas simplemente pujarán los precios al alza hasta excluir al resto.

Por eso defendió una estrategia de democratización basada en abundancia. En vez de pensar solo en interfaces populares, como ChatGPT, planteó la necesidad de poner servicios de alto valor computacional en manos de mucha más gente, de manera que puedan crear empresas, hacer descubrimientos científicos o desarrollar productos.

Según Altman, este objetivo requiere muchísimos más centros de datos y mucha más infraestructura. Comparó el reto con el abaratamiento histórico de la electricidad y la energía, que elevó la calidad de vida a escala global. En su visión, la IA debería seguir una ruta similar: volverse abundante y cada vez más barata.

Aim remarcó que la asignación de cómputo será una de las grandes preguntas sociales de los próximos años, mientras siga siendo un recurso relativamente escaso. Si el costo no baja con rapidez, advirtió, surgirán decisiones dolorosas sobre quién puede acceder a beneficios extraordinarios y quién queda fuera.

En paralelo, Aim sugirió que podrían surgir instituciones intermedias entre gobiernos y corporaciones. No detalló un modelo cerrado, pero habló de estructuras con niveles de rendición de cuentas más robustos que los de una empresa privada, y más ágiles que la administración pública tradicional, para prototipar respuestas en seguridad social y gobernanza de IA.

Trabajo, impuestos y transición en una economía dominada por IA

La conversación también abordó de frente el impacto laboral. Aim reconoció que muchos trabajadores no reciben la IA con entusiasmo, sino con temor a ser reemplazados. Por ello, defendió que los desarrolladores deben proponer desde ya políticas que garanticen una economía más justa y mecanismos de apoyo durante la transición.

Entre las ideas mencionadas estuvieron una mayor alfabetización en IA, participación de sindicatos y trabajadores en las decisiones sobre despliegue de sistemas en el lugar de trabajo, y cautela frente a la vigilancia laboral automatizada. En su planteamiento, la adopción no debería diseñarse solo desde la dirección corporativa o desde la ingeniería.

Altman fue aún más lejos al sugerir que, si la IA realiza gran parte del trabajo intelectual, probablemente será necesario repensar los impuestos. En vez de depender del ingreso humano como principal base tributaria, dijo, las sociedades podrían verse obligadas a explorar nuevas formas de gravar el valor generado por sistemas automatizados.

También habló de asistencia de transición, seguros de desempleo y nuevas formas de participación en la riqueza creada por esta tecnología. A su juicio, el capitalismo depende de un equilibrio entre trabajo y capital, y si la IA altera demasiado esa relación, el sistema actual tendrá que evolucionar.

Akafe añadió que el documento discutido por OpenAI contempla ideas como modernizar la base tributaria, beneficios portables e incluso una semana laboral de 32 horas, aunque insistió en que este tipo de medidas deberían analizarse como respuestas condicionales a disrupciones concretas. En otras palabras, no como recetas automáticas, sino como herramientas para amortiguar shocks si estos se materializan.

Salud, cuidado y el uso cotidiano que puede cambiar la percepción pública

En el tramo final, los participantes abordaron los ámbitos donde la IA podría ofrecer beneficios más visibles para la población general. Aim destacó el potencial en salud, sobre todo para ayudar a pacientes a navegar sistemas complejos, obtener mejores diagnósticos y aliviar la carga administrativa sobre médicos y enfermeras.

Altman respaldó esa visión con una anécdota personal. Contó que, tras un análisis de sangre con algunos marcadores fuera de rango, recibió de su médico una respuesta tranquilizadora pero poco específica. Luego consultó esos resultados en ChatGPT y obtuvo una explicación más detallada, junto con la sugerencia de tomar un suplemento y repetir la prueba en un mes. Según dijo, funcionó.

Akafe sostuvo que, además de mejorar la experiencia del paciente, la IA podría acelerar la investigación médica y liberar tiempo del personal humano para tareas de cuidado real, en vez de dedicar tantos recursos a procesos burocráticos. En ese sentido, remarcó que las áreas de atención humana, como enfermería, enseñanza y economía del cuidado, seguirán siendo centrales.

Cuando se les preguntó qué cualidades humanas importarán más en el futuro, Aim mencionó carácter, compromiso, esfuerzo y compasión. Altman agregó otra observación: tras visitar un café atendido por robots, descubrió que extrañaba la simple interacción humana con un barista. Para él, eso revela que la conexión entre personas conservará valor incluso en un entorno muy automatizado.

Hacia el cierre, Altman destacó cómo niños sin noción de las limitaciones técnicas tradicionales ya usan herramientas como Codex para convertir ideas en videojuegos mediante lenguaje natural, a veces por voz. Esa espontaneidad, afirmó, muestra que la próxima generación crecerá dando por normal algo que para muchos adultos todavía parece extraordinario.

OpenAI anunció además una invitación pública para recibir propuestas a través del correo newindustrialpolicy@openai.com, así como un programa piloto de fellowships y grants de investigación de hasta USD $100.000 en financiamiento y hasta USD $1.000.000 en créditos de API. También informó sobre nuevas discusiones en un taller en Washington DC durante mayo.

En conjunto, el mensaje fue claro: la empresa cree que el margen para prepararse existe, pero podría ser corto. Y por eso quiere trasladar el debate desde la esfera técnica hacia un terreno más amplio, donde entren de lleno trabajadores, gobiernos, investigadores, empresas y sociedad civil.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín