La disputa entre los dos gigantes de la IA, OpenAI y Anthropic, expone profundas diferencias sobre regulación y responsabilidad en Estados Unidos.
***
- Anthropic se opone a proyecto que limitaría responsabilidad legal de desarrolladores.
- OpenAI respalda el enfoque como vía para equilibrar innovación y seguridad.
- Debate revela tensiones crecientes en torno a la regulación de IA en Estados Unidos.
La empresa Anthropic, conocida por su modelo de IA, Claude, se ha posicionado en contra de un proyecto de ley en el estado de Illinois que cuenta con el respaldo de OpenAI, marcando un nuevo episodio en la creciente división entre las principales compañías de inteligencia artificial respecto a cómo deben regularse estas tecnologías.
El proyecto, conocido como SB 3444, propone limitar la responsabilidad legal de los desarrolladores de IA en escenarios donde sus sistemas sean utilizados para causar daños graves, como víctimas masivas o pérdidas superiores a USD $1.000 millones en propiedad.
Según reporta WIRED, la controversia, aunque con pocas probabilidades de convertirse en ley, está delineando posiciones políticas clave que podrían influir en futuros marcos regulatorios a nivel nacional.
Un choque de enfoques sobre responsabilidad
El núcleo del desacuerdo radica en una pregunta fundamental: ¿quién debe ser responsable si un sistema de inteligencia artificial es utilizado para provocar un desastre?
De aprobarse SB 3444, los laboratorios de IA no serían considerados responsables si un actor malicioso utiliza sus modelos para generar, por ejemplo, un arma biológica letal, siempre que la empresa haya publicado un marco de seguridad propio.
Desde Anthropic, esta propuesta representa un riesgo significativo. La compañía sostiene que el proyecto otorga una protección excesiva a las empresas tecnológicas, reduciendo los incentivos para implementar salvaguardas robustas.
Cesar Fernández, responsable de relaciones gubernamentales de Anthropic, afirmó que la legislación no debe convertirse en un “salvoconducto” que elimine la responsabilidad de las compañías frente a daños potenciales derivados de sus sistemas.
OpenAI defiende un marco armonizado
Por su parte, OpenAI ha defendido el proyecto como un intento de equilibrar seguridad e innovación, argumentando que permite el despliegue de tecnología sin imponer cargas regulatorias que frenen el desarrollo.
La empresa también ha señalado que trabaja con estados como Nueva York y California para construir un enfoque regulatorio “armonizado”, que eventualmente podría servir como base para una legislación federal.
Según declaraciones de su portavoz, OpenAI considera que, en ausencia de acción a nivel nacional, es necesario avanzar con marcos estatales consistentes que permitan a Estados Unidos mantener su liderazgo en inteligencia artificial.
Este enfoque refleja una visión más pragmática, centrada en facilitar la adopción tecnológica mientras se establecen estándares mínimos de seguridad.
Críticas desde expertos y autoridades
El proyecto ha generado críticas más allá de Anthropic. Expertos en políticas públicas advierten que podría debilitar mecanismos legales existentes que ya incentivan el comportamiento responsable de las empresas.
Thomas Woodside, analista del Secure AI Project, señaló que la responsabilidad civil actual es uno de los principales instrumentos para garantizar que las compañías mitiguen riesgos previsibles asociados a sus sistemas.
Eliminar o reducir significativamente esta responsabilidad, según Woodside, podría tener efectos contraproducentes al disminuir la presión sobre las empresas para actuar con diligencia.
Desde el ámbito político, la oficina del gobernador de Illinois, JB Pritzker, también expresó reservas. En un comunicado, se indicó que no se debería permitir que grandes empresas tecnológicas evadan responsabilidades relacionadas con la protección del interés público.
Una batalla más amplia por la regulación de la IA
La disputa en torno a SB 3444 se enmarca en un contexto más amplio de creciente presión regulatoria sobre la inteligencia artificial en Estados Unidos.
Anthropic ha apoyado otra iniciativa en Illinois, SB 3261, considerada una de las propuestas más estrictas en materia de seguridad de IA. Esta legislación exigiría a los desarrolladores crear planes de protección pública y someterlos a auditorías independientes.
La postura de Anthropic es consistente con su historial. Fundada por exintegrantes de OpenAI, la empresa ha construido su identidad en torno a la seguridad y los riesgos potenciales de la IA avanzada.
Sin embargo, este enfoque también ha generado tensiones políticas. Durante la administración de Donald Trump, figuras como David Sacks criticaron a Anthropic por lo que consideraban una estrategia de presión regulatoria basada en escenarios de riesgo extremos.
Implicaciones para el futuro del sector
Aunque SB 3444 enfrenta probabilidades limitadas de aprobación, el debate que ha generado es altamente relevante para el futuro de la industria.
Las diferencias entre Anthropic y OpenAI reflejan una división más profunda dentro del ecosistema tecnológico: entre quienes priorizan la mitigación de riesgos mediante regulación estricta y quienes buscan preservar la velocidad de innovación con marcos más flexibles.
A medida que los sistemas de IA se vuelven más potentes y su impacto potencial aumenta, la cuestión de la responsabilidad legal se perfila como uno de los ejes centrales del debate regulatorio.
En este contexto, lo que ocurra a nivel estatal podría sentar precedentes clave para una eventual legislación federal, definiendo el equilibrio entre innovación, seguridad y rendición de cuentas en la era de la inteligencia artificial.
Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público
Este artículo fue escrito por un redactor de contenido de IA
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Estados Unidos
CEOs desafían pronóstico de desempleo masivo por IA y apuestan por la productividad
IA
Google lleva Gemini Personal Intelligence a India con acceso a Gmail y Photos
Criptomonedas
Nominado a la FED, Kevin Warsh, reporta inversiones en SpaceX, Polymarket, cripto e IA
Empresas