Un proyecto de ley en Illinois apoyado por OpenAI ha desatado críticas por contemplar un fuerte límite a la responsabilidad de los grandes laboratorios de IA si sus modelos llegan a causar daños catastróficos. La propuesta, identificada como SB 3444, podría sentar un precedente clave en el debate sobre seguridad, regulación y rendición de cuentas en la industria.
***
- OpenAI respalda la SB 3444 en Illinois, una iniciativa que limitaría la responsabilidad de laboratorios de IA por “daños críticos”.
- La propuesta cubriría incidentes con más de 100 muertes o al menos USD $1.000.000.000 en daños a la propiedad, bajo ciertas condiciones.
- El proyecto aplicaría a modelos de frontera entrenados con más de USD $100.000.000 en costos computacionales, como los de OpenAI, Google, xAI, Anthropic y Meta.
OpenAI está impulsando en Illinois un proyecto de ley que ha generado fuerte controversia por la amplitud de la protección legal que ofrecería a los mayores desarrolladores de inteligencia artificial del mercado.
La iniciativa, conocida como SB 3444, contempla que los laboratorios de IA de frontera queden exentos de responsabilidad en ciertos casos de daños extremos causados por sus modelos.
El debate es especialmente sensible porque llega en un momento en el que gobiernos, empresas y académicos discuten hasta dónde debe llegar la rendición de cuentas de los creadores de sistemas avanzados. En términos simples, el eje de la discusión es si una compañía debe responder legalmente cuando su tecnología es utilizada, o actúa, de una manera que termina provocando consecuencias catastróficas.
Según la información divulgada por Crooks and Liars, varios expertos en políticas de IA dijeron a WIRED que la SB 3444 podría establecer un nuevo estándar para la industria. También advirtieron que se trata de una medida más extrema que otros proyectos de ley respaldados anteriormente por OpenAI.
La propuesta protegería a los desarrolladores de IA de frontera frente a demandas por “daños críticos” causados por sus modelos, siempre que no hayan provocado el incidente de forma intencional o temeraria y que, además, hayan publicado en su sitio web informes de seguridad, protección y transparencia.
Qué contempla la SB 3444
El proyecto define “daño crítico” con umbrales muy elevados. Entre ellos, menciona la muerte o lesiones graves de 100 o más personas, así como daños a la propiedad por al menos USD $1.000.000.000. Esa vara deja claro que la discusión no gira sobre fallas menores, sino sobre escenarios de escala masiva.
La iniciativa también enumera algunos de los riesgos más citados dentro del debate sobre seguridad en inteligencia artificial. Uno de ellos es que un actor malicioso utilice modelos avanzados para desarrollar armas químicas, biológicas, radiológicas o nucleares. Ese tipo de escenarios ha sido recurrente en las discusiones regulatorias alrededor de la IA de frontera.
Además, la SB 3444 contempla otra posibilidad todavía más delicada. Si un modelo de IA incurre por sí solo en una conducta que, de haber sido cometida por un ser humano, constituiría un delito penal, y esa acción termina derivando en los resultados extremos antes descritos, también se consideraría un “daño crítico” bajo la propuesta.
Sin embargo, incluso en esos casos, el laboratorio de IA responsable del modelo no podría ser considerado legalmente responsable, siempre que no haya actuado de manera intencional y haya cumplido con la publicación de sus reportes. Ese punto es el que concentra la mayor parte de las críticas.
A qué empresas podría beneficiar
La SB 3444 no está redactada para cualquier sistema de inteligencia artificial. El texto define un “modelo de frontera” como aquel entrenado con más de USD $100.000.000 en costos computacionales. Ese umbral apunta a un grupo reducido de compañías con capacidad técnica y financiera para construir los sistemas más avanzados del mercado.
De acuerdo con lo informado, entre los actores que probablemente entrarían en esa categoría figuran OpenAI, Google, xAI, Anthropic y Meta. En otras palabras, la medida tendría un alcance especialmente relevante para los mayores laboratorios de IA de Estados Unidos.
Esto es importante porque el costo computacional se ha convertido en una barrera competitiva decisiva dentro del sector. Solo un puñado de empresas tiene acceso al capital, la infraestructura y los chips necesarios para entrenar modelos de gran escala. Por eso, cualquier marco de inmunidad parcial o de limitación de daños no solo afecta la seguridad pública, sino también el equilibrio competitivo del mercado.
En la práctica, un esquema como el propuesto podría influir en la forma en que los desarrolladores evalúan riesgos, diseñan controles internos y comunican sus políticas de seguridad. Sus defensores podrían argumentar que ofrece certidumbre jurídica. Sus críticos, en cambio, ven el riesgo de reducir los incentivos para prevenir daños extremos.
Por qué el proyecto ha encendido alarmas
La controversia no surge únicamente por la existencia de un proyecto regulatorio, sino por el alcance del blindaje que plantea. Varios expertos en políticas de IA consultados por WIRED sostienen que la medida va más lejos que iniciativas previas asociadas al respaldo de OpenAI, lo que ha intensificado el escrutinio sobre la empresa y su estrategia regulatoria.
En el centro del debate está una pregunta básica: si una compañía diseña y despliega sistemas tan poderosos que pueden ser utilizados para causar daños catastróficos, ¿basta con publicar reportes de seguridad para quedar fuera de responsabilidad, salvo que pueda probarse intención o temeridad? Para muchos analistas, ese estándar podría resultar demasiado favorable a la industria.
La noticia también recoge la reacción crítica que circuló en redes sociales tras conocerse los detalles del proyecto. Parte del rechazo se resume en la idea de que una empresa no debería quedar “fuera del gancho” legal si sus modelos de frontera se descontrolan o son empleados en eventos con consecuencias devastadoras, incluso cuando no exista intención directa.
Ese tono quedó reflejado en comentarios sarcásticos que acompañaron la difusión del caso. La crítica apunta a que, bajo una norma de este tipo, el mensaje percibido por la opinión pública podría ser que el desarrollador simplemente alegue que no quiso provocar el desastre, aun si el resultado final fuera una catástrofe de enorme magnitud.
Un debate más amplio sobre responsabilidad en IA
El caso de Illinois se inserta en una discusión más amplia que ya atraviesa a Estados Unidos y otras jurisdicciones: cómo regular tecnologías con capacidad de amplificar riesgos sistémicos. A diferencia de sectores más maduros, la inteligencia artificial todavía opera en muchos frentes con estándares legales fragmentados y en evolución.
Para lectores menos familiarizados con este tema, la responsabilidad legal en IA suele abarcar preguntas sobre diseño, despliegue, supervisión, uso indebido y previsibilidad del daño. En los modelos más avanzados, esa discusión es aún más compleja porque los sistemas pueden ser reutilizados por terceros, adaptados para nuevas tareas o combinados con otras herramientas.
Por eso, proyectos como la SB 3444 son observados con atención más allá de Illinois. Si una norma estatal establece un marco particularmente favorable para los grandes laboratorios, podría convertirse en referencia para otras propuestas legislativas o servir como argumento de lobby en futuras negociaciones regulatorias.
De momento, el proyecto ya logró abrir una conversación incómoda pero central. No se trata solo de cuánto puede hacer la inteligencia artificial, sino de quién asume el costo cuando ese poder produce daños graves. En ese terreno, la iniciativa respaldada por OpenAI podría marcar un precedente importante en la relación entre innovación, seguridad pública y responsabilidad corporativa.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
China
China investiga presión sobre chips Nvidia prohibidos tras revelación de Sharetronic
Criptomonedas
La CIA desplegará ‘compañeros de IA’ para ayudar a detectar espías y analizar inteligencia
Estados Unidos
XAI de Musk demanda a Colorado para frenar su nueva ley de inteligencia artificial
Bitcoin