Por Canuto  

Una decisión histórica desde el Tribunal del Distrito Norte de California otorga a Anthropic una victoria clave sobre el uso justo en el entrenamiento de inteligencia artificial, permitiendo el uso de libros protegidos—salvo copias pirateadas—para LLMs. Sin embargo, la empresa aún debe enfrentar un juicio por daños por la utilización de obras pirateadas en su biblioteca central. El fallo podría transformar el panorama del desarrollo de IA y el trato de los derechos de autor en toda la industria.
***

  • El tribunal de California falló a favor de Anthropic respecto al uso de libros protegidos para entrenar IA, considerando este uso como ‘justo’, salvo para copias pirateadas.
  • Anthropic enfrentará un juicio para determinar la compensación por daños asociados al uso de millones de copias obtenidas ilícitamente.
  • La decisión podría sentar un precedente para el uso de material con derechos de autor por plataformas de IA, generando impacto en toda la industria tecnológica.

 


Contexto: la batalla legal entre autores y plataformas de inteligencia artificial

Un conflicto jurídico de alto perfil se desarrolla en torno al entrenamiento de modelos de inteligencia artificial (IA) con material protegido por derechos de autor. En agosto de 2024, los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson presentaron una demanda colectiva en el Distrito Norte de California contra Anthropic, la compañía detrás de Claude AI, una de las startups de IA más prometedoras y respaldada por gigantes como Amazon y Google.

La demanda alegaba que Anthropic había copiado millones de libros, tanto de fuentes pirateadas como compradas, para integrarlos en su enorme biblioteca digital. El objetivo: utilizar estos textos protegidos como insumo para entrenar grandes modelos de lenguaje (LLMs), sin contar con la autorización de los autores.

En respuesta, Anthropic argumentó en abril de 2025 que la causa no era adecuada para agruparse como demanda colectiva, señalando la complejidad y diversidad del supuesto daño sobre más de cinco millones de libros. La empresa también advirtió sobre la potencial ruina financiera de enfrentar hasta USD $150.000 en daños estatutarios por cada uno de los libros, lo que podría sumar un monto astronómico de USD $750.000 millones.

El fallo: ¿entrenar IA con obras protegidas es uso justo?

El 23 de junio de 2025, el tribunal emitió una decisión trascendental. Según el reporte original de AI Fray, el Distrito Norte de California concedió un juicio sumario a favor de Anthropic, declarando que tanto el uso de los libros protegidos para entrenar IA, como el proceso de convertir copias impresas a formato digital, constituían “uso justo” de acuerdo con la Sección 107 de la Ley de Derechos de Autor.

El juez William H. Alsup basó su análisis en los cuatro factores clásicos del uso justo: el propósito del uso (si es comercial o educativo), la naturaleza de la obra utilizada, la cantidad empleada y el impacto en el mercado potencial o valor de la obra. La decisión consideró que, salvo el segundo factor (la naturaleza de las obras, en su mayoría literarias), los demás elementos favorecían a la postura de Anthropic.

El tribunal subrayó el carácter “transformador” de la tecnología de IA, calificándola como una de las más disruptivas de las últimas décadas. Asimismo, reconoció que la digitalización de una copia comprada, si implica destruir el original impreso y no redistribuir el archivo digital, puede ser considerada un uso justo bajo ciertas circunstancias.

La excepción: copias pirateadas llevan a Anthropic a juicio por daños

A pesar de la resonancia que genera este triunfo parcial para Anthropic y para las plataformas de IA en general, no fue una victoria absoluta. El tribunal determinó que las copias pirateadas que la empresa recopiló para formar parte de su biblioteca central no podían ampararse en la figura del uso justo, especialmente al retener esos archivos “para siempre” y con “propósitos generales”, aun si no todas se emplearon en el entrenamiento de LLMs.

En este punto, el fallo fue contundente: “Cada factor apunta en contra del uso justo” respecto a las obras pirateadas, resaltando que ningún argumento justificaba ese uso más allá de la conveniencia económica para Anthropic. El tribunal aclaró además que la compra posterior de copias legítimas de un libro no exculpa a la empresa del uso ilícito previo, aunque podrá afectar la cuantía de los daños que se determinen en la siguiente fase del proceso.

En consecuencia, se programó un juicio para definir la responsabilidad de Anthropic y el monto de los daños relacionados a la utilización de estas copias pirateadas. Dada la magnitud potencial de las cifras involucradas, la decisión final podría impactar drásticamente las finanzas de la empresa y marcar un antes y después en la industria.

Repercusiones para la industria de la IA e implicancias legales futuras

Aunque la orden actual proviene de una corte de distrito y se circunscribe a un caso concreto, su resonancia trasciende a toda la industria tecnológica. De mantenerse la interpretación, se abriría la puerta para que otras empresas de IA utilicen material protegido para entrenar sus sistemas, siempre y cuando no recurran a fuentes pirateadas y cumplan ciertos requisitos como transformar y no redistribuir el contenido.

La decisión ha sido catalogada por expertos como mixta: una pérdida parcial tanto para los titulares de derechos como para la propia Anthropic, pero también un posible marco jurídico para la evolución de la IA generativa. Las implicancias no solo se concentran en este proceso, sino también en varios litigios similares —como el caso de Authors Guild contra OpenAI en Nueva York y la acción de Thomson Reuters contra Ross Intelligence en la Corte de Apelaciones del Tercer Circuito— donde se debate el delicado equilibrio entre el avance tecnológico y la defensa de los derechos intelectuales.

Es importante destacar que los autores aún podrían apelar el fallo sobre el uso justo, aunque lo más probable es que esto ocurra solo después del juicio sobre daños y sentencia definitiva. Por otro lado, la posición de Anthropic frente al tribunal será observada cuidadosamente por toda la industria, al ser una de las startups mejor financiadas y una de las pioneras en la aplicación de grandes modelos de lenguaje a nivel global.

Conclusión: ¿qué significa el fallo para el futuro de la IA?

Este caso representa una señal de posible flexibilización en la doctrina del uso justo para IA, pero deja una advertencia clara sobre la utilización de obras ilícitamente adquiridas. El mundo de la inteligencia artificial y el derecho de autor permanece, por tanto, en una zona gris, en la que cada nueva decisión puede redefinir los límites entre innovación y propiedad intelectual.

A la espera de la determinación de los daños en el juicio venidero, los ojos del sector tecnológico, jurídico y creativo seguirán puestos en California y en las próximas decisiones que precisen el alcance de este veredicto preliminar.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.
Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.


ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

Suscríbete a nuestro boletín