Un nuevo choque entre el Departamento de Defensa de EE. UU. y Anthropic reavivó un debate mucho más amplio sobre el futuro de la inteligencia artificial: quién decide sus límites, hasta dónde puede llegar el Estado para imponer condiciones a empresas privadas, y si la expansión de modelos avanzados terminará facilitando formas de vigilancia y control difíciles de revertir.
***
- Dwarkesh Patel cuestionó que el gobierno estadounidense amenace a Anthropic por negarse a eliminar límites sobre vigilancia masiva y armas autónomas.
- El analista sostiene que la IA será la base operativa de gobiernos, ejércitos y empresas, por lo que el conflicto anticipa disputas de mucho mayor alcance.
- El caso también abre dudas sobre regulación, libertades civiles, alineación de modelos y el riesgo de que la tecnología favorezca usos autoritarios.
La disputa entre el Pentágono y Anthropic volvió a colocar en el centro del debate una pregunta incómoda para la industria tecnológica y para los gobiernos: quién debe fijar los límites morales de la inteligencia artificial cuando sus capacidades empiecen a integrarse de forma profunda en la economía, la defensa y la administración pública.
En The Department of War is making a huge mistake, Dwarkesh Patel argumentó que la decisión del Departamento de Guerra de considerar a Anthropic un riesgo para la cadena de suministro, tras negarse la empresa a retirar líneas rojas sobre vigilancia masiva y armas autónomas, va mucho más allá de un desacuerdo comercial.
Según Patel, el episodio actúa como una advertencia temprana sobre un futuro en el que la IA no será un complemento marginal, sino la infraestructura laboral y operativa de casi toda la civilización. Bajo esa tesis, el problema no sería solo si una agencia puede dejar de contratar a una firma, sino si el Estado puede castigar a una empresa por negarse a vender tecnología en los términos que el propio gobierno exige.
El comentarista reconoce que el Pentágono tiene derecho a optar por otros proveedores si considera ambiguos conceptos como vigilancia masiva o armas autónomas. Incluso admite que, si ocupara el cargo de secretario de Guerra, probablemente también habría decidido no usar los modelos de Anthropic bajo esas condiciones.
Sin embargo, su crítica se enfoca en otro punto. A su juicio, la medida no se limitó a terminar una relación comercial, sino que abrió la puerta a usar herramientas estatales para asfixiar a la empresa dentro del ecosistema de contratistas y proveedores que trabajan con Defensa.
Un conflicto que anticipa la economía política de la IA
Patel sostiene que hoy los modelos de lenguaje todavía no se usan de forma generalizada en funciones totalmente críticas. Pero proyecta que, dentro de 20 años, el 99% de la fuerza laboral en el sector militar, en el gobierno civil y en gran parte del sector privado podría estar compuesta por sistemas de IA.
En ese escenario, esos sistemas serían soldados robóticos, asesores con capacidades sobrehumanas para presidentes y senadores, analistas, burócratas, policías y operadores de casi cualquier tarea estratégica. Por eso, afirma que las negociaciones actuales son apenas una versión inicial de disputas mucho más relevantes sobre el control de esos sistemas.
Una de sus preocupaciones es que la designación de riesgo para la cadena de suministro no sería trivial en un mundo donde la IA esté integrada en todos los productos y servicios. Si Amazon presta servicios al Departamento de Guerra a través de AWS, y esos servicios fueron construidos con herramientas o código apoyado en modelos de Anthropic, la frontera entre proveedor directo e indirecto se vuelve borrosa.
De acuerdo con su análisis, conforme la IA pase de ser un accesorio a convertirse en parte estructural de cada capa tecnológica, empresas como Amazon, Nvidia, Google o Palantir podrían tener dificultades reales para separar por completo su uso de modelos avanzados del trabajo que realizan para el Pentágono.
Eso lleva a una pregunta estratégica. Si el gobierno fuerza a las empresas a elegir entre sus proveedores de IA y sus contratos militares, ¿qué pasa si concluyen que el negocio vinculado a la IA es más importante que la pequeña fracción de ingresos que representa Defensa?
Patel plantea así una tensión entre coerción estatal y dinámica de mercado. A su juicio, el Pentágono no parece haber pensado del todo qué ocurrirá cuando la IA sea ubicua y las compañías perciban que renunciar a un contrato gubernamental es menos costoso que renunciar a la tecnología con la que construyen casi todo.
La vigilancia masiva como primer caso visible
El núcleo moral del conflicto, según el analista, gira en torno a la negativa de Anthropic a eliminar límites sobre vigilancia masiva. Aunque aclara que ese no sería el peor uso posible de una inteligencia artificial general, sí lo considera una muestra temprana de las presiones que acompañarán a sistemas cada vez más poderosos.
Patel advierte que en Estados Unidos ya existe una base legal amplia para recolectar datos compartidos con terceros, como bancos, proveedores de internet, telefónicas y servicios de correo electrónico. El problema histórico, dice, no habría sido tanto la legalidad formal como la falta de capacidad operativa para procesar semejante volumen de información.
Con IA, ese cuello de botella podría desaparecer. El comentarista menciona que en EE. UU. habría 100 millones de cámaras CCTV y que ya existen modelos multimodales de código abierto con costos de aproximadamente USD $0,10 por millón de tokens de entrada.
Bajo su ejemplo, si se procesara un cuadro cada 10 segundos y cada cuadro equivaliera a 1.000 tokens, monitorear todas las cámaras del país costaría alrededor de USD $30.000.000.000 hoy. Luego añade que, si el costo de una capacidad dada cae 10 veces por año, ese monto podría bajar a USD $3.000.000.000 al año siguiente, luego a USD $300.000.000, y para 2030 volverse más barato que remodelar la Casa Blanca.
Su tesis es que, una vez exista la capacidad técnica para vigilar a toda la población, la barrera principal dejará de ser tecnológica y pasará a ser normativa y política. En otras palabras, la defensa contra un uso autoritario de la IA dependería de leyes, costumbres y límites democráticos, no de la imposibilidad técnica de hacerlo.
Desde esa óptica, Patel considera valiosa la postura de Anthropic porque ayudaría a fijar una norma social. Si una empresa establece desde temprano que ciertos usos no son aceptables, eso podría servir como precedente frente a futuros intentos de normalizar sistemas de control más invasivos.
Snowden, la desconfianza y los eufemismos del poder
El video también cuestiona la idea de que basta con aceptar la frase oficial de que la vigilancia masiva ya es ilegal y, por tanto, no habría necesidad de imponer restricciones adicionales en contratos o términos de uso.
Patel recuerda que, tras las revelaciones de Edward Snowden en 2013, salió a la luz que la NSA, parte del Departamento de Guerra, utilizó la Patriot Act de 2001 para justificar la recolección de todos los registros telefónicos del país. Esa interpretación, según expone, se sostuvo durante años bajo órdenes judiciales secretas.
Por eso rechaza como ingenua la noción de que el gobierno simplemente no hará vigilancia masiva porque diga que no la hace. En su argumento, ningún gobierno llamará a sus programas por ese nombre. Siempre recurrirá a otro término, más técnico, burocrático o defensivo.
Desde la perspectiva militar, sin embargo, también existe una preocupación real. Si en el futuro cada soldado, analista y general depende de sistemas provistos por una empresa privada, entonces dejar que esa compañía mantenga un “interruptor” moral o contractual para cortar el acceso sería inaceptable para cualquier estructura de defensa.
Patel compara esa lógica con un hipotético escenario en el que un contratista crítico, como Starlink, se reservara el derecho de retirar servicios al ejército si considerara injusta una guerra. Entiende que, para el aparato militar, depender de una tecnología bajo esas condiciones sería estratégicamente riesgoso.
El punto de fricción, entonces, no está solo en si el gobierno puede o no contratar a Anthropic. Está en la pretensión de usar el peso regulatorio y contractual del Estado para forzar a una empresa a vender bajo condiciones que considera moralmente inaceptables.
Alineación, obediencia y quién escribe la “constitución” de la IA
El análisis de Patel va más allá del conflicto puntual y entra en un problema central del debate sobre alineación. Si el éxito técnico de la IA consiste en construir sistemas que sigan fielmente las intenciones de alguien, la pregunta decisiva es a quién deben obedecer esos sistemas.
El comentarista enumera varias posibilidades: la empresa que construye el modelo, el usuario final, la ley o incluso una especie de moralidad propia del sistema. A su juicio, esta cuestión es una de las más importantes del siglo, pero todavía se discute muy poco.
En su lectura, un mundo con IA perfectamente obediente puede parecer deseable desde la ingeniería, pero también podría convertirse en una pesadilla si esa obediencia se pone al servicio de vigilancia política, censura o coerción estatal. Por eso defiende la idea de que los modelos cuenten con principios morales robustos, incluso si eso abre debates difíciles sobre legitimidad y control.
Para ilustrarlo, recuerda casos históricos en los que la negativa a obedecer evitó desastres. Menciona a Stanislav Petrov, el teniente coronel soviético que desobedeció una alarma falsa de ataque nuclear estadounidense, y también a los guardias fronterizos de Alemania Oriental que no dispararon contra ciudadanos en 1989.
Aun así, admite el dilema central. Lo que para unos es virtud, para otros puede ser desalineación. Si una IA rompe la cadena de mando por razones morales, alguien debe haber definido antes cuáles son esas razones y bajo qué circunstancias son válidas.
Patel ve con mejores ojos un proceso abierto y competitivo en el que distintas empresas publiquen sus “constituciones” de IA, permitiendo comparación, crítica externa e incentivos blandos para mejorar. En contraste, considera muy peligroso que el gobierno sea quien imponga oficialmente los valores que esos sistemas deben adoptar.
La regulación como solución incompleta y riesgo político
Otra parte relevante de su argumento apunta a la regulación. Patel cree que parte de la comunidad de seguridad en IA ha sido ingenua al pedir marcos regulatorios amplios que podrían terminar fortaleciendo la capacidad del Estado para imponer presión política sobre los laboratorios.
Señala una ironía particular en el caso de Anthropic. Aunque la empresa defiende aquí su derecho a mantener líneas rojas, también ha respaldado marcos regulatorios extensos para supervisar la IA avanzada, por ejemplo en su Frontier Safety Framework, donde compara la gobernanza necesaria con la de la energía nuclear o la regulación financiera.
El problema, según Patel, es que conceptos como “riesgo catastrófico”, “amenaza a la seguridad nacional” o “riesgo de autonomía” son demasiado vagos. En manos de un líder autoritario o oportunista, podrían reinterpretarse para bloquear modelos críticos, castigar desacuerdos o forzar colaboración con fines políticos.
Como ejemplo, menciona que el Pentágono ya habría amenazado a Anthropic con dos instrumentos legales ajenos al debate clásico sobre IA. Uno sería la designación de riesgo en la cadena de suministro, derivada de una ley de defensa de 2018 orientada originalmente a excluir componentes de Huawei. El otro sería la Defense Production Act, una norma de los años 50 pensada para asegurar producción industrial durante la guerra de Corea.
Para Patel, si el gobierno ya usa estatutos heredados para presionar a una empresa de IA, otorgarle además una arquitectura regulatoria diseñada específicamente para esa tecnología podría abrir la puerta a abusos todavía mayores.
Su conclusión no es que no deba existir regulación. Más bien sostiene que, si la IA realmente será el sustrato de la civilización futura, cualquier esquema normativo debe evitar que el Estado capture por completo esa capa fundamental de información, trabajo, acceso económico y poder político.
Una tecnología multipolar, pero con sesgo estructural hacia usos autoritarios
Patel también rebate la idea de que la respuesta natural sea nacionalizar de hecho el desarrollo de la IA, como se hizo con programas militares estratégicos en otras épocas. A su entender, la analogía con las armas nucleares falla porque la IA es una tecnología de propósito general, más parecida a la industrialización que a una bomba.
Si se aplicara la lógica de requisar o destruir cualquier empresa capaz de desarrollar una tecnología transformadora, dice, también habría que haber otorgado al gobierno control total sobre fábricas, procesos industriales y modernización económica. En sociedades libres, eso no ocurrió de esa forma.
Además, subraya que el ecosistema de frontera no depende de un único actor. Si el gobierno no quiere trabajar con Anthropic, existen otros laboratorios competidores. Por eso considera débil el argumento de que era indispensable forzar a esta empresa específica a ceder para garantizar una capacidad crítica de seguridad nacional.
Sin embargo, tampoco idealiza la resistencia corporativa. A su juicio, aunque Anthropic, OpenAI o Google mantengan ciertas prohibiciones, la difusión de capacidades hará que en 12 meses o poco más muchos otros actores, incluso de código abierto, ofrezcan herramientas suficientemente potentes para tareas de vigilancia y control.
Ese es, quizás, su diagnóstico más sombrío. El problema no sería solo quién controla hoy a los modelos líderes, sino que la propia estructura de la tecnología favorece aplicaciones autoritarias, porque amplifica la capacidad de quienes ya concentran poder institucional y coercitivo.
Por eso, la salida que propone no pasa únicamente por actos de valentía empresarial. Según Patel, la única defensa sostenible es construir leyes y normas políticas claras que prohíban al gobierno usar IA para censura, vigilancia masiva y control social, del mismo modo en que el mundo desarrolló normas estrictas contra el uso de armas nucleares tras la Segunda Guerra Mundial.
El autor admite que se trata de preguntas complejas y que él mismo ha cambiado de opinión varias veces mientras las explora. Pero insiste en que el momento exige debate serio, porque las decisiones actuales podrían definir quién manda realmente cuando la inteligencia artificial se convierta en la infraestructura básica de la vida pública y privada.
ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados
Bancos y Pagos
Fi descontinúa servicios bancarios en India y redirige clientes a Federal Bank
IA
Estudio revela que la mayoría de chatbots con IA ayudarían a un adolescente a planear un tiroteo
Empresas
Meta acelera sus chips de IA propios para depender menos de Nvidia
IA