Por Canuto  

Microsoft y Google confirmaron que Claude de Anthropic seguirá disponibles para clientes comerciales y corporativos, pese a la disputa abierta entre la startup de IA y el Departamento de Defensa de Estados Unidos por el uso de esta tecnología en vigilancia masiva y armas totalmente autónomas.
***

  • Microsoft dijo que Claude seguirá disponible en M365, GitHub y Microsoft AI Foundry, excepto para el Departamento de Guerra.
  • Google también aseguró que mantendrá acceso a Claude en Google Cloud para proyectos no relacionados con defensa.
  • Anthropic prometió impugnar en tribunales la designación del Pentágono como riesgo para la cadena de suministro.

 

Microsoft y Google salieron a calmar a empresas y startups que usan Claude, el modelo de inteligencia artificial de Anthropic, luego de que el Departamento de Defensa de Estados Unidos intensificara su enfrentamiento con la firma. Ambas tecnológicas aseguraron que el servicio seguirá disponible para clientes no vinculados directamente con contratos de defensa, detalla TechCrunch.

El conflicto se activó después de que el Pentágono designara a Anthropic como un riesgo para la cadena de suministro. La medida llegó tras la negativa de la startup a conceder acceso irrestricto a su tecnología para usos que, según la propia empresa, no podían respaldarse de forma segura, como la vigilancia masiva y las armas totalmente autónomas.

La noticia importa más allá del sector militar. Anthropic es uno de los desarrolladores de modelos de IA más relevantes del mercado, y Claude se distribuye a través de grandes plataformas empresariales. Por eso, cualquier restricción sobre su disponibilidad puede afectar a compañías que dependen de estos sistemas para productividad, programación, automatización y análisis de datos.

Qué dijeron Microsoft y Google sobre Claude

Microsoft fue la primera gran tecnológica en afirmar que los modelos de Anthropic continuarán disponibles para su base de clientes, pese a la ofensiva del Departamento de Defensa. La empresa vende desde Office hasta infraestructura en la nube a numerosas agencias federales, incluido el propio Pentágono.

Un portavoz de Microsoft explicó que la revisión legal interna concluyó que los productos de Anthropic, incluido Claude, pueden seguir ofreciéndose a clientes de la compañía, salvo al Departamento de Guerra, a través de plataformas como M365, GitHub y Microsoft AI Foundry. También indicó que Microsoft puede continuar trabajando con Anthropic en proyectos no relacionados con defensa.

Google adoptó una posición similar. La compañía, que también vende computación en la nube, inteligencia artificial y herramientas de productividad a entidades federales, confirmó que Claude permanecerá accesible para sus usuarios mediante servicios como Google Cloud.

Según declaró un portavoz de Google, la determinación no impide a la empresa colaborar con Anthropic en proyectos ajenos a la defensa. En consecuencia, sus productos seguirán disponibles en las plataformas de Google para clientes no afectados por la restricción específica vinculada al Pentágono.

El origen del choque entre Anthropic y el Pentágono

El trasfondo del caso es una disputa sobre límites de uso de la inteligencia artificial. El Departamento de Defensa elevó la presión después de que Anthropic rechazara otorgar acceso sin restricciones a su tecnología para aplicaciones militares sensibles. La empresa sostuvo que ciertos usos exceden lo que considera seguro o ético.

Entre los ejemplos citados figuran la vigilancia masiva y las armas totalmente autónomas. Ese punto es clave porque muestra que la tensión no gira solo en torno al acceso comercial a modelos de IA, sino a la línea que separa aplicaciones corporativas generales de despliegues militares de alto riesgo.

La designación como riesgo para la cadena de suministro suele reservarse para adversarios extranjeros. Que se aplicara a una startup estadounidense de inteligencia artificial subraya la magnitud del choque y abre un debate más amplio sobre el poder del gobierno para restringir proveedores tecnológicos cuando discrepan sobre usos estratégicos.

En la práctica, la designación implica que el Pentágono no podrá utilizar productos de Anthropic una vez que Claude sea retirado de sus sistemas. Además, obliga a empresas o agencias que trabajen con el Departamento de Defensa a certificar que tampoco usan modelos de Anthropic en ese marco específico.

Lo que cambia para contratistas y clientes empresariales

La principal duda del mercado era si la medida afectaría a todos los clientes con vínculos indirectos con el gobierno de Estados Unidos. Tanto Microsoft como Google interpretan que no. Su lectura es que la restricción aplica al uso de Claude en contratos relacionados directamente con el Departamento de Guerra, no al conjunto de operaciones comerciales de sus clientes.

Esa interpretación coincide con la postura pública de Anthropic. Dario Amodei, director ejecutivo de la firma, sostuvo que la designación se limita al uso de Claude por clientes dentro de contratos directos con el Departamento de Guerra, y no a todo uso de Claude por compañías que también mantengan contratos con esa entidad.

Amodei añadió que incluso para contratistas del Departamento de Guerra, la designación de riesgo para la cadena de suministro no limita, ni puede limitar, los usos de Claude o las relaciones comerciales con Anthropic cuando esos usos no están relacionados con contratos específicos con el Pentágono.

Ese matiz es importante para el mercado corporativo. Muchas empresas tecnológicas, consultoras y proveedores de nube operan a la vez en el sector privado y en el público. Si la interpretación de Microsoft, Google y Anthropic prevalece, el impacto comercial inmediato quedaría acotado a la esfera de defensa y no al resto de clientes empresariales.

Anthropic prepara batalla legal y el crecimiento de Claude sigue

Anthropic ya anticipó que impugnará la designación en los tribunales. La empresa considera que la medida debe ser combatida legalmente, una señal de que la disputa podría evolucionar hacia un caso de alto perfil sobre contratación pública, seguridad nacional y libertad empresarial en el desarrollo de modelos avanzados de IA.

De acuerdo con TechCrunch, el enfrentamiento no ha frenado el impulso comercial del producto entre consumidores. El crecimiento de Claude continuó después de que Anthropic se negara a ceder ante las exigencias del departamento, lo que sugiere que la controversia política no se ha traducido, al menos por ahora, en una retracción visible de la demanda.

Para lectores nuevos en el tema, Claude compite en el mercado de modelos fundacionales que alimentan asistentes, chatbots, herramientas de oficina y servicios de automatización. Cuando un modelo de este tipo es distribuido por gigantes como Microsoft y Google, su alcance se multiplica entre empresas que no necesariamente contratan de forma directa con el desarrollador original.

Por eso, el mensaje de continuidad emitido por ambas tecnológicas tiene peso propio. Más que una aclaración operativa, funciona como una señal al mercado de que la disputa entre Anthropic y el Pentágono, al menos en esta etapa, no bloquea el acceso general a Claude para clientes no vinculados a proyectos de defensa.

El caso también expone una tensión creciente en la industria de la inteligencia artificial. Las grandes plataformas quieren seguir ofreciendo una amplia cartera de modelos a sus clientes, mientras gobiernos y desarrolladores debaten dónde deben trazarse los límites para usos militares, de vigilancia y de seguridad nacional.

Hasta ahora, los hechos centrales son claros. Microsoft y Google mantendrán disponible a Claude para clientes no relacionados con defensa. El Pentágono excluye a Anthropic de su esfera de uso y exige certificaciones a sus contratistas. Y Anthropic, respaldada por su propia interpretación legal, se prepara para responder en tribunales.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín