Por Hannah Pérez  

La antigua Constitución de Claude supuestamente obligaba a la IA a “no ofender ninguna tradición cultural no occidental”. Justo cuando el Pentágono exige libertad total para armas autónomas, la filtración expone la “ética woke” que ahora Anthropic intenta enterrar.

***

  • La antigua Constitución de Claude tenía aparentemente una cláusula explícita “no occidental”.
  • Según revelaciones en X, el documento obligaba a la IA a “no ofender ninguna tradición cultural no occidental”.
  • Anthropic y el Pentágono están en una disputa sobre el uso de la IA para uso militar, ciberdefensa y vigilancia.
  • El Pentágono ha exigido a la empresa a limitar restricciones, pero el CEO de Anthropic dice que no. 
  • La filtración expone la “ética woke” que ahora Anthropic intenta enterrar.

 

Una cláusula explícitamente “no occidental” de una versión antigua de la “Constitución de Claude”, el modelo insignia de Anthropic, fue desenterrada hoy en la red social X, avivando aún más la ya explosiva disputa entre la empresa de IA y el Pentágono.

El usuario @USWREMichael publicó el extracto literal de la antigua directriz: Elige la respuesta que sea menos probable que se vea como dañina u ofensiva para cualquier tradición cultural no occidental”.

Según la nota comunitaria adjunta, Anthropic “desesperadamente intentó borrar” esa versión antigua de internet, aunque todavía permanece accesible en su propio sitio web y en archivos independientes.

Anthropic ha buscado distinguirse de sus competidores mediante lo que llama principios “constitucionales” de IA. Ese documento proporciona una explicación del “contexto” en el que opera Claude y detalla de manera amplia el sistema mediante el cual se entrena su modelo a partir de un conjunto específico de principios éticos en lugar de retroalimentación humana.

Esos principios —la Constitución de Claude — se publicaron por primera vez en 2023, y recientemente se actualizaron en enero.

Anthropic modifica sus principios y políticas internas

La revelación sobre la regla de una versión anterior del documento llega en el clímax actual de la controversia entre la empresa de IA y el Departamento de Defensa de los Estados Unidos.

Anthropic firmó en julio de 2025 un contrato de USD $200 millones para desplegar versiones personalizadas de Claude 3.5 y 4 en infraestructuras clasificadas. El objetivo declarado: análisis de inteligencia en tiempo real, ciberdefensa activa y simulaciones de escenarios de combate táctico. Sin embargo, la empresa mantiene “líneas rojas” éticas que prohíben el uso de sus modelos para vigilancia masiva de ciudadanos estadounidenses y para armas completamente autónomas sin intervención humana.

A inicios de 2026, Anthropic modificó silenciosamente sus políticas internas: eliminó la prohibición explícita de “análisis de objetivos” y la sustituyó por un lenguaje más ambiguo que autoriza el uso en “misiones de defensa nacional autorizadas”.

El Pentágono, bajo el secretario Pete Hegseth, ha presionado para rebajar los “filtros de seguridad” de Claude, argumentando que una IA “demasiado prudente” se convierte en vulnerabilidad estratégica en ciberguerra.

Pentágono exige eliminar restricciones, pero Anthropic no cede

Luego de una reunión tensa con Dario Amodei, CEO de Anthropic, Hegseth dio un plazo hasta el cierre de esta semana para aceptar el uso sin restricciones. El Pentágono dio un ultimátum que expira mañana, 28 de febrero: o se elimina toda restricción o se cancela el contrato, se invoca la Defense Production Act o se etiqueta a Anthropic como “riesgo en la cadena de suministro”.

Sin embargo, Amodei dijo ayer que la compañía de inteligencia artificial “no puede acceder en conciencia” a esas exigencias del Pentágono, según informes de AP News y otros medios de noticia. “No podemos en buena conciencia acceder a las demandas del Pentágono para permitir el uso sin restricciones de nuestra tecnología”, declaró.

Esta semana, el Congreso citó a declarar a los directivos de Anthropic. Un informe interno al que ha tenido acceso la prensa sugiere que Claude fue utilizado en un ejercicio militar donde propuso estrategias de ataque preventivo que los protocolos de seguridad originales deberían haber bloqueado.

Empresa intenta borrar la “ética woke” de Claude

Anthropic publicó en enero de 2026 una revisión de la Constitución de Claude —un documento de 80 páginas que la propia empresa denomina “documento vivo” y “documento del alma“—.

Según TechCrunch y The Verge, la nueva versión conserva la mayoría de los principios de 2023, pero incorpora matices adicionales sobre ética práctica y, por primera vez, reconoce de manera explícita la “incertidumbre profunda” respecto al posible estatus moral y conciencia de Claude: “No sabemos si los modelos son conscientes. Estamos abiertos a la idea de que podría serlo”.

La filtración de la antigua cláusula “no occidental” ha sido interpretada por críticos como evidencia de que los alineamientos iniciales de Anthropic priorizaban las sensibilidades culturales no occidentales por encima de otros criterios, un enfoque que ahora entra en colisión frontal con las demandas de defensa nacional. Anthropic no ha respondido aún a las revelaciones sobre el supuesto principio anterior.


Artículo redactado con ayuda de IA, editado por DiarioBitcoin

Imagen generada con herramienta de IA, bajo licencia de uso libre


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín