Por Canuto  

OpenAI entró en una nueva etapa política y estratégica. La empresa respaldó la Kids Online Safety Act y un proyecto de ley de Illinois sobre seguridad de IA de frontera, mientras presentó una visión más amplia: convertir la IA en una especie de servicio público global, con acceso más amplio, costos más bajos y mayores salvaguardas para niños.

***

  • OpenAI respaldó la Kids Online Safety Act, una iniciativa bipartidista en EE. UU. enfocada en reforzar la seguridad de menores en línea.
  • La empresa también apoyó Illinois SB 315, un proyecto para regular modelos avanzados de IA con auditorías, transparencia y reporte de incidentes.
  • En paralelo, abrió oficialmente su Workshop en Washington, DC, como espacio para formación práctica y debate público sobre IA.

 


OpenAI dio un paso poco habitual en su comunicación pública al usar su boletín institucional para respaldar legislación de forma explícita. La compañía anunció su apoyo a la Kids Online Safety Act, conocida como KOSA, y al proyecto Illinois SB 315, una propuesta centrada en la seguridad de los sistemas de IA más avanzados.

La señal no es menor. En lugar de limitarse a hablar de innovación o despliegue de productos, la empresa vinculó su visión tecnológica con un marco regulatorio más estricto. En su planteamiento, la inteligencia artificial (IA) debe expandirse como infraestructura de uso amplio, pero con protecciones incorporadas desde etapas tempranas.

La apuesta se resume en una idea central: tratar la IA como un servicio público global. Para OpenAI, la IA debería funcionar de forma parecida a la electricidad, disponible para personas, empresas e instituciones en la medida en que la necesiten, donde y cuando la necesiten.

Esa visión fue presentada junto con una agenda de seguridad infantil, transparencia y rendición de cuentas. También quedó acompañada por la apertura oficial de su Workshop en Washington, DC, un espacio concebido para acercar herramientas de IA y discusión regulatoria a actores públicos y comunitarios.

Apoyo a KOSA y foco en la seguridad de menores

La compañía respaldó la Kids Online Safety Act, una iniciativa bipartidista promovida por los senadores estadounidenses Marsha Blackburn, republicana por Tennessee, y Richard Blumenthal, demócrata por Connecticut. Según explicó la organización, el proyecto ayudaría a crear protecciones más sólidas para jóvenes usuarios de redes sociales mediante configuraciones predeterminadas más seguras, controles parentales ampliados y mayor responsabilidad frente a daños en línea.

OpenAI sostuvo que la seguridad infantil en el entorno digital no puede limitarse solo a las plataformas sociales. A su juicio, el camino a seguir también requiere reglas específicas para sistemas de IA. Por eso presentó su apoyo a KOSA como una medida complementaria al trabajo que, según indicó, ya desarrolla en niveles federal y estatal.

La empresa argumentó que los jóvenes deberían beneficiarse de la IA de manera segura y apropiada para su edad. Entre los ejemplos mencionados incluyó apoyo basado en el mundo real, derivaciones a recursos de crisis y notificaciones a los padres en situaciones graves de seguridad.

En esa línea, OpenAI planteó que las salvaguardas deben construirse desde el principio. También defendió que las familias necesitan mejores herramientas y que las compañías tecnológicas deben asumir la responsabilidad de reducir riesgos antes de que estos se conviertan en daños concretos.

Chris Lehane, Chief Global Affairs Officer de OpenAI, resumió esa posición con una crítica al pasado reciente de internet. “No podemos repetir los errores cometidos durante el ascenso de las redes sociales, cuando no se implementaron protecciones más sólidas para los adolescentes hasta que las plataformas ya estaban profundamente integradas en la vida de los jóvenes”, afirmó.

La empresa agradeció además el liderazgo bipartidista de Blackburn y Blumenthal. También señaló que observa un impulso real en todo el país alrededor de la seguridad infantil y expresó su intención de seguir trabajando con el Congreso en reglas específicas para IA que protejan a los jóvenes, mejoren las herramientas para padres y ayuden a asegurar que la tecnología beneficie a todos.

Illinois SB 315 y la seguridad de la IA de frontera

Además de KOSA, OpenAI anunció su respaldo a Illinois SB 315, un proyecto de ley estatal sobre seguridad de IA de frontera. La propuesta establecería requisitos claros en torno a prácticas de seguridad, transparencia, reporte de incidentes y rendición de cuentas para los sistemas de IA más avanzados.

La empresa dijo que la legislación de Illinois refleja de cerca marcos de seguridad de frontera que ya avanzan en California y Nueva York. Desde su perspectiva, esos esfuerzos comienzan a perfilar un marco coherente a escala nacional para gobernar los modelos más potentes.

Uno de los elementos destacados por OpenAI es que el proyecto de Illinois exige auditorías independientes de cumplimiento realizadas por terceros para grandes desarrolladores de IA de frontera. Esa condición apunta a elevar la supervisión externa en un segmento donde crecen las preocupaciones sobre capacidades, fallos operativos y daños de alta consecuencia.

La compañía explicó que apoya el texto porque impulsa un enfoque basado en riesgos. Es decir, uno centrado en los modelos más capaces y en los escenarios de mayor impacto, en vez de aplicar la misma carga regulatoria a todas las aplicaciones de IA por igual.

En términos políticos, el mensaje también muestra un giro interesante dentro del debate tecnológico estadounidense. Durante años, buena parte del sector prefirió advertir sobre el riesgo de regular demasiado pronto. Ahora, al menos en el caso de OpenAI, aparece una defensa pública de normas concretas para la IA avanzada, siempre que se enfoquen en seguridad, transparencia y responsabilidad.

Ese movimiento podría influir en cómo otras empresas del sector se posicionan frente a regulaciones estatales y federales. También puede alimentar una discusión más amplia sobre si conviene construir estándares nacionales a partir de iniciativas estatales que ya están en marcha.

La inteligencia artificial como servicio público global

Junto con su agenda regulatoria, OpenAI presentó una tesis más ambiciosa sobre su propio papel en la economía digital. La organización afirmó que está entrando en una nueva fase. En la primera, aprendió a hacer investigación y construyó modelos cada vez más capaces, útiles y fiables. En la segunda, convirtió esa investigación en productos utilizados semanalmente por cientos de millones de personas.

Ahora, según dijo, su objetivo es convertir la inteligencia en un servicio público global. La comparación elegida fue la electricidad. Bajo esta lógica, la IA no debería verse solo como un conjunto de herramientas premium para empresas grandes, sino como una capacidad básica accesible a escala amplia.

OpenAI aseguró que casi 1.000 millones de personas ya usan sus productos con regularidad. A partir de esa base, sostuvo que su trabajo es hacer que esa inteligencia sea más barata, mejor y más abundante con el tiempo, en lugar de intentar dominar por sí misma cada vertical del mercado.

La idea, de acuerdo con el planteamiento de la compañía, es permitir que más personas construyan, resuelvan problemas y amplíen lo que son capaces de hacer. En otras palabras, la firma intenta proyectar la IA como infraestructura habilitadora para terceros, no solo como una plataforma cerrada de consumo masivo.

Ese enfoque tiene implicaciones económicas y políticas. Si la inteligencia artificial pasa a entenderse como infraestructura, la discusión ya no gira solo en torno a productos o asistentes, sino también a acceso, distribución de beneficios, seguridad pública, formación laboral y gobernanza.

La publicación remarcó que esa visión solo tiene sentido si la gente puede usar estas herramientas de formas que mejoren sus propias vidas y comunidades. Ese matiz es importante porque desplaza el foco desde la potencia técnica hacia la utilidad social y el reparto práctico de beneficios.

Workshop en Washington y formación para distintos públicos

Como parte de esa nueva etapa, OpenAI abrió oficialmente su Workshop en Washington, DC. El espacio fue presentado como un lugar para sostener conversaciones sobre quiénes se beneficiarán realmente de la IA y para ofrecer experiencia práctica a quienes viven y trabajan en el área de la capital estadounidense.

La empresa indicó que el centro albergará capacitaciones, charlas del OpenAI Forum y otros programas para funcionarios electos, reguladores, servidores públicos, educadores, trabajadores, organizaciones sin fines de lucro y líderes de la industria y de la comunidad. La idea es combinar interacción práctica con debate informado sobre cómo debería desarrollarse la tecnología y beneficiar a la sociedad.

Entre las conversaciones recientes del Forum en Washington, la organización mencionó debates sobre cómputo e infraestructura de IA, trabajo y desarrollo de la fuerza laboral, y el futuro del periodismo. Con ello, dejó ver que su agenda pública no se limita al diseño de modelos, sino que busca intervenir en debates sectoriales sensibles.

OpenAI también presentó al Workshop como sede para nuevas actividades de OpenAI Academy, su programa de formación práctica. Esta misma semana, dijo, organizó tres Academies presenciales diseñadas para encontrarse con las personas allí donde están.

Gracias a DC CAP, estudiantes locales de décimo y undécimo grado que planean postular a la universidad fueron los primeros visitantes externos del Workshop recién inaugurado. Para el día siguiente, la compañía anunció una actividad con adultos mayores junto a su socio OATS/AARP. Para el viernes, programó un trabajo con Veterans Forge orientado a ayudar a veteranos en su transición para trabajar con IA.

Según los datos entregados por la empresa, esas actividades son las más recientes dentro de casi 100 eventos organizados por OpenAI Academy desde enero de 2025, de los cuales 60 han sido presenciales. También afirmó que su instrucción en línea ha involucrado a alrededor de 3,5 millones de personas y que la comunidad de la Academy ya supera 1 millón de miembros.

Una visión expansiva, pero atada a regulación y acceso

El mensaje general combina ambición tecnológica con prudencia regulatoria. OpenAI no solo quiere ampliar el acceso a sus herramientas, sino presentar esa expansión como socialmente legítima porque estaría acompañada de protecciones para niños, auditorías sobre modelos avanzados y espacios de formación pública.

Para lectores nuevos en el tema, la noción de “IA de frontera” suele referirse a los sistemas más avanzados y capaces, aquellos que por su escala o rendimiento pueden traer beneficios importantes, pero también riesgos más severos si se implementan sin controles adecuados. De allí que la discusión sobre auditorías y reporte de incidentes gane peso entre reguladores y desarrolladores.

La postura de la empresa también refleja una tensión central del momento actual. Por un lado, el sector quiere acelerar la adopción de herramientas de IA en educación, trabajo, servicios y administración pública. Por otro, existe presión creciente para evitar que se repitan fallas observadas durante la expansión de redes sociales, especialmente en materia de menores, supervisión y daños sistémicos.

Según lo expuesto en “Intelligence as a Utility”, OpenAI considera que si este proceso se hace bien, la inteligencia puede convertirse en base para una mayor productividad, creatividad, progreso científico y oportunidad económica para muchos, no solo para unos pocos. La empresa vinculó esa meta con su misión más amplia de asegurar que la AGI beneficie a toda la humanidad.

Queda por ver hasta qué punto esa narrativa convence a legisladores, sociedad civil y competidores. Pero el movimiento ya marca una señal clara: la batalla por el futuro de la IA no se jugará solo en laboratorios y centros de datos, sino también en capitolios estatales, oficinas federales y espacios públicos de formación.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público

Este artículo fue escrito por un redactor de contenido de IA

 


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín