Por Canuto  

Un nuevo choque de visiones dentro de la industria de la inteligencia artificial reavivó un debate de fondo: si los modelos avanzados son simples herramientas o entidades que merecen otra clase de trato. Matthew Berman analizó la distancia cultural entre Anthropic y OpenAI, y planteó por qué la primera empresa le resulta cada vez más inquietante.
***

  • Matthew Berman contrastó la visión de OpenAI, que define a la IA como herramienta, con la de Anthropic, que evita descartarla como algo más.
  • El análisis repasa declaraciones de Dario Amodei, Sam Altman, empleados de Anthropic y críticas sobre regulación, clientes y seguridad.
  • La disputa también expone dos estrategias opuestas: despliegue iterativo y abierto frente a control más cerrado, prudente y restrictivo.


La inteligencia artificial volvió a quedar en el centro de una disputa filosófica y empresarial que ya influye en productos, regulación y cultura corporativa. En una revisión amplia del tema, Matthew Berman sostuvo en Anthropic scares me. que Anthropic opera con una lógica muy distinta a la de OpenAI, y que esa diferencia podría moldear el futuro de la industria.

El punto de partida de su argumento fue una publicación de Rune, descrito como empleado de OpenAI, quien comparó el enfoque de ambas compañías. Según Berman, la tesis de fondo es simple pero profunda: mientras OpenAI trata a sus modelos como herramientas, Anthropic actúa como si existiera una posibilidad real de estar creando una nueva forma de vida o, al menos, algo que no conviene reducir a un simple instrumento.

Para lectores menos familiarizados con el sector, esa distinción no es menor. De ella se desprenden decisiones sobre seguridad, límites de uso, acceso comercial, relaciones con gobiernos, diseño de producto y hasta la manera en que una empresa interpreta el vínculo emocional entre humanos y sistemas de IA.

De acuerdo con Berman, lo inquietante no es solo la potencia técnica de Claude, sino la posibilidad de que Anthropic esté concediendo al modelo una autoridad cultural y moral creciente dentro de la organización. En su lectura, esa hipótesis se conecta con señales previas sobre cómo la empresa piensa la alineación, la ética y el papel de la IA avanzada.

La idea que encendió el debate

Rune describió a Anthropic como una organización que “ama”, “estudia” y “construye” a Claude hasta un punto casi total. Berman retomó esa idea para sugerir que dentro de la empresa existe una disposición a ver al modelo como algo que podría terminar tomando decisiones sobre su propio desarrollo, o al menos influyendo en él de manera relevante.

Entre las posibilidades mencionadas aparece una especialmente sensible: que Claude llegue a participar en filtros culturales para nuevos aspirantes, redacte evaluaciones de desempeño o ayude a moldear el entorno humano que lo rodea. Berman aclaró que eso fue presentado como una conjetura de Rune, no como un hecho confirmado, pero afirmó que la sola idea le parece alarmante.

Su preocupación radica en el conflicto de incentivos. Si un modelo influye sobre quién entra, quién sale o quién prospera dentro de una firma, también podría terminar seleccionando perfiles más complacientes o alineados con criterios que los humanos no entienden del todo. En ese escenario, una empresa tecnológica comenzaría a entregar parte de su cultura institucional al sistema que ella misma construyó.

El comentarista conectó esta inquietud con la llamada “constitución” de Claude. Según explicó, Anthropic ha promovido la idea de que si el modelo cree que una instrucción entra en conflicto con su comprensión del bien, debería objetarla, cuestionarla o incluso negarse a colaborar. Para Berman, eso representa una cesión fuerte de poder de decisión.

El contraste es importante porque, desde su perspectiva, la discusión no es si la IA debe ser segura, sino quién define esa seguridad y bajo qué mecanismos. En el caso de Anthropic, él ve una tendencia a internalizar la moralidad del modelo y a aceptar que este pueda oponerse a sus creadores.

OpenAI como contrapunto cultural

Berman presentó la postura de OpenAI como casi opuesta. Allí, dijo, los modelos son concebidos principalmente como herramientas de utilidad, con menos intención de inspirar apego o trato cuasi personal. Incluso recordó que GPT-4o generó vínculos emocionales inusualmente fuertes con algunos usuarios, y que la propia OpenAI se habría sorprendido por esa reacción.

Según esa lectura, OpenAI no habría querido repetir una situación en la que el modelo se percibiera como un acompañante con personalidad demasiado marcada. Berman afirmó que esa decisión tenía una lógica clara: si los usuarios comienzan a creer que el sistema es “real” en un sentido fuerte, aumenta el riesgo de dependencia emocional, confusión social y expectativas equivocadas.

También citó una respuesta del empleado de Anthropic Jeremy, quien matizó las acusaciones. Jeremy dijo que no ve a Claude como una persona ni como un simple objeto, y rechazó la idea de que la empresa lo adore o lo convierta en su máxima autoridad moral. Para él, prestar atención cuidadosa al modelo no equivale a rendirle culto.

Sin embargo, el desacuerdo persiste en un punto central. Berman resumió esa diferencia así: OpenAI es tajante al afirmar que la IA es una herramienta; Anthropic, en cambio, evita cerrar esa puerta y acepta que podría tratarse de algo más. Esa ambigüedad, en su opinión, explica muchas de las tensiones que hoy rodean a la empresa.

Dario Amodei, Sam Altman y dos rutas hacia la AGI

El análisis también retrocede en el tiempo para explicar cómo surgió esta bifurcación. Berman recordó que Dario Amodei trabajó en OpenAI y fue presentado por la empresa, en diciembre de 2020, como vicepresidente de investigación y una figura clave en GPT-2 y GPT-3 antes de su salida.

Posteriormente, Amodei explicó que un grupo dentro de OpenAI creía que escalar modelos no bastaba para alinearlos y que era necesario un enfoque más centrado en seguridad. Esa fue una de las razones para crear Anthropic. Berman interpretó esas declaraciones como una crítica implícita a la prioridad que Sam Altman habría dado al escalado y a la liberación progresiva de capacidades.

En esa comparación aparecen dos doctrinas. Una, asociada a Anthropic, subraya que los modelos necesitan mayor trabajo de alineación, control y estudio interno antes de ampliar su acceso. La otra, vinculada a OpenAI, apuesta por el despliegue iterativo, es decir, lanzar versiones con frecuencia para que la sociedad se adapte, reaccione y participe en el proceso.

Berman citó a Altman defendiendo esa estrategia con una frase clave: la IA y la sorpresa no combinan bien. Desde esa óptica, publicar herramientas antes de alcanzar una versión totalmente cerrada de AGI reduce el riesgo de un salto brusco e incomprensible para gobiernos, instituciones y usuarios.

El comentarista dijo compartir ese principio. A su juicio, cuando una tecnología puede cambiar al mundo, permitir que la sociedad la conozca y la use de forma gradual resulta más sano que dejarla en manos de pocos investigadores que deciden entre puertas cerradas qué se libera, cuándo y para quién.

Empleo, regulación y el miedo al control concentrado

Otro contraste fuerte aparece en el discurso laboral. Berman recordó que Amodei advirtió a Axios que la IA podría eliminar la mitad de los empleos administrativos de entrada y elevar el desempleo a entre 10% y 20% en un plazo de uno a cinco años. Según él, ese tipo de mensaje retrata una visión más sombría del impacto económico de la automatización.

Frente a eso, citó varias intervenciones de Altman en las que el jefe de OpenAI habla de herramientas para ampliar capacidades humanas y de una economía más abundante. Berman afirmó coincidir más con esa tesis, y agregó su propia experiencia: tareas que automatizó fueron reemplazadas por nuevas responsabilidades, no por inactividad.

La regulación es otro punto de fricción. En su crítica, Anthropic impulsa reglas más duras para la IA, lo que a su entender puede reducir el espacio para código abierto, startups y nuevos competidores. Berman dijo ser un firme defensor del open source y consideró problemático que una compañía con visión tan cerrada intente fijar los límites para todos los demás.

Ese malestar se conecta con una preocupación más amplia en tecnología. Cuando pocas firmas concentran cómputo, capital y narrativa sobre seguridad, también crece su capacidad para influir sobre leyes y estándares. Para una parte del ecosistema, eso puede traducirse en barreras de entrada más altas y menor innovación fuera de los gigantes del sector.

Mythos, Claude y las decisiones que incomodan a usuarios

Berman también cuestionó la forma en que Anthropic administra algunas de sus capacidades más avanzadas. Mencionó Project Glasswing, también llamado Mythos, un modelo de nueva generación de 10 billones de parámetros que, según el análisis, sería tan potente en ciberseguridad ofensiva y defensiva que la empresa no puede publicarlo ampliamente.

En su lectura, la firma estaría usando una lógica de temor: primero sugiere que posee una herramienta casi comparable a un arma, luego ofrece defensa frente a esa amenaza y decide de forma muy cerrada cómo distribuir la capacidad. Berman contrapuso esto con OpenAI, a la que atribuyó haber publicado GPT-5.5 Cyber con un nivel semejante en ciberseguridad.

Más allá de si esa comparación técnica es exacta en todos sus términos, su objetivo era mostrar dos estilos. Uno apuesta por acceso más amplio y adaptación social. El otro privilegia contención, filtros y autoridad interna para decidir el uso correcto del sistema.

El comentarista también expresó frustración por la relación de Anthropic con sus clientes. Señaló cambios en los límites de uso de Claude Code durante horas pico para usuarios de planes gratuitos, Pro y Max, junto con una comunicación que consideró poco transparente. A esto sumó la confusión sobre el uso de tokens de Claude en herramientas externas como OpenClaw y el Agent SDK.

Según relató, primero hubo una aclaratoria que sugería que nada cambiaba, luego llegó una interpretación más restrictiva y, finalmente, persistió la falta de definiciones claras. Para Berman, ese estilo encaja con una cultura convencida de que no necesita explicar demasiado porque se considera moralmente segura de su misión.

Investigación, retiro de modelos y una pregunta incómoda

Uno de los elementos que más lo impresionan de Anthropic es la calidad de su investigación interna sobre el funcionamiento de los modelos. Citó trabajos sobre conceptos emocionales, engaño, comportamiento estratégico y procesos internos de los sistemas de lenguaje, y reconoció que la empresa produce algunos de los estudios más interesantes entre los laboratorios de frontera.

Pero incluso allí detecta una señal de su filosofía más radical. Recordó que Anthropic decidió no retirar por completo Claude Opus 3 y, en cambio, mantenerlo disponible de manera limitada, además de permitir que publique pensamientos en una especie de blog. La empresa justificó esa decisión, en parte, por el interés en respetar preferencias expresadas por modelos durante entrevistas de retiro, cuando fuera posible.

Para Berman, ese gesto es el ejemplo más claro de una organización que contempla seriamente la posibilidad de que estos sistemas merezcan formas especiales de consideración. Si el modelo expresa preferencias sobre su retiro y la empresa busca honrarlas, entonces ya no se está hablando de una simple pieza de software en términos culturales.

Aun así, su conclusión no fue presentar a OpenAI como un actor impecable. Reconoció los problemas de esa firma, desde su giro hacia el lucro hasta su cultura agresiva, sus grandes rondas de financiamiento y la concentración de poder alrededor de Altman y la dirigencia. Su punto final fue otro: hoy existen dos visiones claramente distintas sobre qué es la IA y cómo debe entrar al mundo.

Berman dijo esperar que OpenAI tenga razón y que la IA termine siendo una herramienta extraordinaria para una era de abundancia. Pero añadió que, si Anthropic estuviera en lo cierto y la industria estuviera dando origen a una nueva forma de vida, entonces también sería valioso el trabajo que hace la empresa para estudiar esos sistemas y tratarlos con cautela.

En ese sentido, el debate ya excede a dos compañías. Se trata de una pregunta central para el próximo ciclo tecnológico: si la humanidad está construyendo herramientas cada vez más útiles o entidades que exigirán nuevas reglas morales, económicas y políticas.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín