Por Canuto  

Anthropic anunció la creación de un nuevo instituto interno dedicado a estudiar los efectos de la inteligencia artificial a gran escala, justo cuando la empresa libra una disputa legal con el gobierno de Estados Unidos por una designación que podría poner en riesgo cientos de millones de dólares en ingresos futuros.
***

  • El nuevo Instituto Anthropic unifica tres equipos de investigación y arrancará con unas 30 personas.
  • La decisión coincide con una demanda contra el gobierno de EE. UU. por una lista negra vinculada al Departamento de Defensa.
  • Jack Clark aseguró que la empresa no teme financiar investigación de largo plazo, pese al posible impacto comercial.

 


Anthropic anunció el lanzamiento del Instituto Anthropic, un nuevo grupo interno de expertos que reunirá parte importante de sus esfuerzos de investigación en torno al impacto de la inteligencia artificial a escala social, económica y política. La decisión llega en un momento delicado para la empresa, que además atraviesa una disputa con el gobierno de Estados Unidos por una designación oficial que amenaza su negocio con clientes vinculados al Departamento de Defensa.

La iniciativa marca también un reordenamiento de la cúpula ejecutiva. Jack Clark, cofundador de Anthropic, dejará su papel como jefe de política pública tras más de cinco años para asumir un nuevo cargo como jefe de beneficio público. Desde esa posición dirigirá el Instituto Anthropic, que buscará responder preguntas sobre empleo, seguridad, valores sociales y control humano frente a sistemas de IA cada vez más avanzados.

Para lectores menos familiarizados con el sector, Anthropic es una de las empresas más relevantes en la carrera global por desarrollar modelos avanzados de IA. Su chatbot Claude compite en el mismo espacio que otras plataformas líderes, pero la compañía ha intentado diferenciarse con un discurso centrado en seguridad, alineación y transparencia. Ese enfoque es ahora parte del centro de una controversia política y comercial de alto impacto.

Según explicó la empresa, el nuevo instituto combinará tres equipos ya existentes: el de impactos sociales, el de prueba de estrés de fronteras y el de investigación económica. El objetivo es estudiar las consecuencias más difíciles de la llamada “IA poderosa”, un término que Anthropic utiliza para referirse a sistemas cercanos a la inteligencia general artificial, o AGI.

Reorganización interna y expansión en Washington

Clark dijo que el lanzamiento del instituto llevaba tiempo gestándose y que venía considerando un rol de este tipo desde noviembre. Su antiguo equipo de política pública, que según la empresa triplicó su tamaño en 2025, quedará ahora bajo la dirección de Sarah Heck, antes jefa de asuntos externos.

Anthropic también confirmó que abrirá su planificada oficina en Washington, DC. El equipo de política pública seguirá concentrado en asuntos como seguridad nacional, infraestructura de IA, energía y lo que la compañía describe como “liderazgo democrático en IA”.

La creación del instituto ocurre pocos días después de que Anthropic demandara al gobierno de Estados Unidos por haber sido designada como un riesgo para la cadena de suministro. Según la demanda, esa clasificación impediría que sus clientes usen tecnología de Anthropic en trabajos propios relacionados con el Departamento de Defensa.

La empresa sostiene que la administración Trump la incluyó ilegalmente en una lista negra debido a sus “líneas rojas” sobre vigilancia masiva doméstica y armas letales totalmente autónomas. La disputa no es menor, porque la interpretación de ese veto podría tener efectos amplios sobre contratos, socios y continuidad comercial.

Lo que investigará el nuevo Instituto Anthropic

El instituto comenzará con unas 30 personas. Entre los miembros fundadores figuran Matt Botvinick, anteriormente en Google DeepMind; Anton Korinek, profesor en licencia del departamento de economía de la Universidad de Virginia; y Zoe Hitzig, investigadora que dejó OpenAI después de la decisión de introducir anuncios dentro de ChatGPT.

La nueva estructura no solo absorbe equipos existentes. También servirá para incubar nuevas líneas de trabajo. Una de ellas será un equipo liderado por Botvinick para estudiar cómo la IA puede impactar el sistema legal. Por su parte, Hitzig y Korinek encabezarán proyectos de investigación económica a gran escala.

Clark afirmó que espera que la plantilla del instituto se duplique cada año en el futuro previsible. La agenda cubrirá temas de gran alcance, como qué puede pasar con los empleos y las economías, si la IA vuelve a la sociedad más segura o introduce riesgos adicionales, cómo sus valores podrían moldear los nuestros y hasta qué punto los humanos podrán mantener el control.

También habrá una línea de trabajo orientada a la dependencia emocional hacia la IA, un fenómeno que ha ganado visibilidad pública durante el último año. Clark señaló que los equipos de Anthropic ya han analizado el tipo de conversaciones que ocurren con Claude y la capacidad del sistema para persuadir a personas o mostrarse servil, pero no han dedicado tanto esfuerzo a hablar con usuarios sobre sus experiencias individuales.

Por ello, el instituto planea realizar investigación de ciencias sociales a gran escala, incluso con apoyo de la propia IA de Anthropic para entrevistar usuarios. Clark comparó este reto con el efecto de las redes sociales sobre la sociedad, al señalar que no basta con observar lo que sucede dentro de la plataforma, sino que hay que estudiar cómo cambia a las personas el uso continuado de la tecnología.

Presión financiera, demanda y apuesta por la transparencia

El contexto financiero añade presión adicional. Este año, compañías de IA de alta valoración como Anthropic enfrentan un escrutinio creciente, en especial porque la empresa supuestamente planea hacer una oferta pública este mismo año. Documentos judiciales citados por The Verge revelaron que Anthropic ha generado más de USD $5.000 millones en ingresos comerciales históricos.

Esos mismos documentos indican que la empresa ha gastado USD $10.000 millones hasta la fecha en entrenamiento e inferencia de modelos. Además, Anthropic afirmó haber recibido solicitudes de numerosos socios externos que expresaron confusión sobre las exigencias del gobierno y preocupación sobre su capacidad de seguir trabajando con la compañía.

La firma señaló igualmente que docenas de empresas la han contactado en busca de orientación y, en algunos casos, para entender sus derechos de terminación contractual. Según su propia evaluación, dependiendo de cómo se interprete el alcance de la prohibición gubernamental, al menos cientos de millones de ingresos de 2026 están en riesgo. En el escenario más severo, la cifra podría elevarse a múltiples miles de millones.

Pese a ese panorama, Clark dijo que no tiene “ninguna preocupación” sobre dedicar más recursos a investigación de largo plazo. Afirmó que gran parte de lo que la empresa puede producir en esta área ayuda a que otras compañías confíen en Anthropic. En su visión, la inversión en seguridad y en estudiar y reportar sobre la seguridad de sus sistemas no es un centro de costos, sino un centro de beneficios.

El ejecutivo también sostuvo que cree que la IA poderosa llegará a finales de este año o a comienzos de 2027. Explicó que decidió cambiar de rol principalmente por el ritmo del progreso de la IA. Añadió que al revisar su trabajo del año pasado notó que había dedicado más atención a cuestiones de política, como el proyecto de ley SB 53, que a temas de I+D e interrogantes que ahora quiere atender con mayor profundidad.

Una de las preguntas inevitables es qué ocurrirá si el Instituto Anthropic produce investigaciones que dejen mal parada a la empresa. Clark respondió que los cofundadores comparten valores similares respecto a la divulgación pública, sobre todo porque Anthropic es técnicamente una corporación de beneficio público. Eso significa que tiene margen para perseguir objetivos que no se limiten a la ganancia fiduciaria.

Clark agregó que, en una conversación reciente con el CEO Dario Amodei, ambos coincidieron en la importancia de la transparencia, incluso si esta puede generar problemas de relaciones públicas. La postura resulta relevante en una industria donde muchas empresas se presentan como abiertas hasta que la divulgación amenaza intereses comerciales.

El uso de cómputo también es un factor sensible. La investigación del instituto podría requerir recursos significativos en un momento en que el sector compite por priorizar productos rentables y entrenamiento de modelos. Clark dijo que, fuera del cómputo reservado al preentrenamiento del modelo de frontera, Anthropic asigna esos recursos semana a semana según lo que parezca más importante, y afirmó que no anticipa conflictos por ahora.

En conjunto, el lanzamiento del Instituto Anthropic refleja una apuesta dual. Por un lado, la empresa intenta blindar su narrativa de seguridad y utilidad pública en plena confrontación con Washington. Por otro, busca estudiar de forma más sistemática el impacto real de una tecnología que, según su propia dirección, podría alcanzar capacidades transformadoras en un plazo muy corto.

En ese sentido, la noticia no solo habla de un cambio organizativo dentro de una startup de IA. También expone cómo la carrera por sistemas cada vez más potentes ya está chocando con debates sobre defensa, regulación, empleo, derecho, valores públicos y confianza institucional. Para una firma con ambiciones de crecimiento masivo y posible salida a bolsa, el equilibrio entre transparencia, negocio y poder político será cada vez más difícil de sostener.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín