Por Canuto  

La relación entre Anthropic y OpenClaw volvió a tensarse luego de que la cuenta de Peter Steinberger, creador del proyecto, fuera suspendida temporalmente al intentar acceder a Claude. Aunque el bloqueo fue revertido en pocas horas, el episodio reavivó el debate sobre precios, acceso a APIs y el creciente choque entre plataformas abiertas y proveedores de modelos cerrados.
***

  • Peter Steinberger dijo que su cuenta de Anthropic fue suspendida por actividad “sospechosa”, aunque fue restablecida horas después.
  • La suspensión ocurrió poco después de que Anthropic excluyera a OpenClaw de las suscripciones de Claude y exigiera pago por uso vía API.
  • Steinberger cuestionó la justificación de Anthropic y sugirió que la empresa primero replicó funciones populares y luego endureció las reglas para el software abierto.

 


Anthropic suspendió temporalmente la cuenta de Peter Steinberger, creador de OpenClaw, mientras este intentaba acceder a Claude para realizar pruebas de compatibilidad. El desarrollador publicó la incidencia en X durante la mañana del viernes 10 de abril, junto con una captura de un mensaje en el que la empresa indicaba que la cuenta había sido bloqueada por actividad “sospechosa”.

La suspensión duró solo unas horas. Más tarde, Steinberger informó que el acceso había sido restablecido, aunque no quedó del todo claro qué motivó el cambio ni si la viralización del caso aceleró la reversión. Según TechCrunch, Anthropic fue consultada para aclarar las razones exactas del episodio.

El incidente llamó la atención por el contexto en el que ocurre. La semana anterior, Anthropic había anunciado que las suscripciones de Claude ya no cubrirían herramientas de terceros, incluyendo OpenClaw. Desde entonces, quienes usan OpenClaw con modelos de Claude deben pagar ese consumo por separado a través de la API.

Para quienes siguen de cerca el ecosistema de agentes de IA, el conflicto no es menor. OpenClaw es una herramienta orientada a coordinar tareas más complejas sobre distintos modelos, y su funcionamiento depende de mantener compatibilidad con proveedores diversos. Por eso, cualquier cambio de acceso o precios en una plataforma dominante impacta de forma directa en usuarios y desarrolladores.

Una suspensión breve, pero altamente simbólica

La publicación original de Steinberger sugería que en adelante sería más difícil garantizar que OpenClaw siguiera funcionando con los modelos de Anthropic. El mensaje generó cientos de reacciones, incluidas teorías sobre una posible represalia, dado que el desarrollador ahora trabaja en OpenAI, uno de los principales rivales de Anthropic en el sector de modelos de lenguaje.

En medio de esa conversación pública, un ingeniero de Anthropic intervino para afirmar que la empresa nunca ha prohibido a nadie por usar OpenClaw. También se ofreció a ayudar a resolver el problema. Esa respuesta fue relevante porque bajó la temperatura de las acusaciones más severas, aunque no explicó de inmediato por qué la cuenta había sido marcada como sospechosa.

Steinberger no detalló si ese intercambio con el ingeniero fue decisivo para la restauración del acceso. Aun así, el caso dejó al descubierto el nivel de fricción que puede surgir entre creadores de herramientas abiertas y compañías que controlan modelos cerrados con reglas de uso cada vez más estrictas.

El hecho también exhibe una realidad técnica del sector. Los desarrolladores que construyen software sobre múltiples modelos necesitan probar con frecuencia que nuevas versiones no rompan integraciones existentes. Cuando ese acceso se interrumpe, aunque sea por pocas horas, la confiabilidad del ecosistema se resiente.

El trasfondo: el nuevo cobro de Anthropic a herramientas como OpenClaw

Anthropic justificó su cambio de política al señalar que las suscripciones de Claude no fueron diseñadas para soportar los “patrones de uso” de los llamados claws. La empresa sostuvo que estas herramientas pueden ser más intensivas en cómputo que prompts simples o scripts básicos.

La explicación técnica apunta a que los claws pueden ejecutar bucles continuos de razonamiento, repetir tareas de forma automática, reintentarlas cuando fallan y conectarse con múltiples herramientas externas. Ese comportamiento, según la compañía, eleva el consumo y exige un esquema de pago por uso mediante API.

En la práctica, el nuevo modelo separa a OpenClaw del paquete estándar de suscripción y traslada sus costos a un sistema medido por consumo. Para usuarios avanzados, eso puede traducirse en más control sobre el gasto. Pero también puede operar como una barrera para herramientas externas que compiten por ofrecer una mejor interfaz o experiencia de agente.

Steinberger dejó claro que no compró la explicación de Anthropic. Después del cambio de precios, escribió que le parecía “qué curioso” el momento en que ocurría todo: primero, según él, la empresa copia funciones populares en su entorno cerrado y luego bloquea al código abierto. Esa frase condensó la crítica principal que hoy circula entre parte de la comunidad de desarrolladores.

La tensión con Cowork y las funciones incorporadas por Anthropic

Aunque Steinberger no precisó qué capacidades tenía en mente, la observación parece apuntar a nuevas funciones incorporadas al agente Cowork de Claude. Entre ellas figura Claude Dispatch, una característica presentada semanas antes del ajuste de política para OpenClaw y que permite controlar agentes de forma remota y asignarles tareas.

Ese paralelismo alimentó la percepción de que Anthropic estaría fortaleciendo su propia oferta mientras restringe o encarece el acceso de soluciones externas que cubren casos de uso similares. No hay evidencia en la noticia de que la empresa haya confirmado esa intención, pero el cruce de tiempos fue suficiente para avivar la sospecha pública.

La discusión es relevante porque recuerda una tensión ya conocida en plataformas tecnológicas. Cuando el proveedor de infraestructura también compite en la capa de aplicaciones, siempre surgen preguntas sobre neutralidad, incentivos y trato equitativo hacia terceros. En IA generativa, esa fricción apenas comienza a definirse.

En este caso, además, el mercado se mueve muy rápido. Una función lanzada por una plataforma puede alterar en cuestión de días la viabilidad comercial de proyectos complementarios. Por eso, incluso decisiones que parecen meramente técnicas pueden leerse como movimientos estratégicos con implicaciones competitivas.

El papel de OpenAI y la defensa de Steinberger

Parte de la polémica creció porque Steinberger hoy trabaja en OpenAI. Algunos usuarios insinuaron que la situación podía estar vinculada a esa relación laboral, e incluso uno comentó que él había tenido la opción de unirse a Anthropic, pero eligió “la equivocada”.

La respuesta del desarrollador fue directa: “Una me dio la bienvenida, la otra envió amenazas legales”. La frase añadió una capa personal al episodio y volvió más áspera la conversación. Sin embargo, no aportó detalles adicionales sobre el contexto de esas supuestas amenazas.

Ante quienes preguntaron por qué seguía utilizando Claude en vez de los modelos de su empleador, Steinberger respondió que solo lo hace con fines de prueba. Explicó que necesita asegurarse de que las actualizaciones de OpenClaw no rompan nada para los usuarios que dependen de Claude.

También marcó una separación entre sus dos roles. Dijo que su trabajo en la OpenClaw Foundation busca que OpenClaw funcione muy bien para cualquier proveedor de modelos, mientras que su función en OpenAI está enfocada en ayudar con la estrategia futura de producto. Esa distinción fue central para responder a quienes veían un conflicto de intereses automático.

Por qué el caso importa para el ecosistema de IA

Varios comentarios en la discusión pública señalaron que la necesidad de seguir probando Claude refleja que ese modelo continúa siendo una opción popular entre usuarios de OpenClaw, incluso por encima de ChatGPT en ciertos contextos. Ese dato, aunque anecdótico, sugiere que la competencia real entre modelos sigue siendo muy abierta y depende del tipo de tarea.

El episodio también muestra cómo los cambios en precios y acceso afectan no solo a consumidores finales, sino a capas enteras de software construidas sobre modelos fundacionales. En un ecosistema donde agentes, automatización y herramientas de terceros ganan peso, las reglas de interoperabilidad pueden volverse tan importantes como la calidad del modelo en sí.

Por ahora, la cuenta de Steinberger fue restaurada y el incidente parece haber quedado resuelto en lo operativo. Pero el trasfondo permanece. La discusión sobre si los grandes laboratorios de IA están encareciendo, limitando o absorbiendo funciones creadas por terceros probablemente seguirá creciendo a medida que la industria madure.

Steinberger, por su parte, no respondió a una solicitud de comentarios adicional, de acuerdo con la información reportada. Lo ocurrido deja una señal clara para desarrolladores y usuarios avanzados: en la carrera por controlar la capa de agentes de IA, el acceso técnico, las políticas comerciales y la confianza entre plataformas serán variables cada vez más sensibles.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín