IA y derechos de autor: Anthropic y la nueva piratería
La empresa de inteligencia artificial Anthropic, creadora del chatbot Claude, ha acordado pagar 1.500 millones de dólares para resolver una demanda por infracción de derechos de
autor. El acuerdo afecta a 500.000 obras literarias y establece una compensación de 3.000 dólares por título a sus respectivos autores y editoriales. Se trata del mayor pago registrado en la historia del copyright en Estados Unidos.
Este caso marca un antes y un después en la relación entre las grandes tecnológicas y los creadores de contenido. Y plantea preguntas de fondo que resuenan con fuerza en sectores
como el audiovisual. ¿Cuáles son los límites legales al utilizar obras existentes como material de entrenamiento para estos sistemas?
¿Qué ha pasado exactamente?
La demanda fue iniciada en 2024 por un grupo de autores (entre ellos Andrea Bartz, Charles Graeber y Kirk Wallace Johnson), quienes denunciaron que sus obras, junto con cientos de miles más, habían sido descargadas
ilegalmente desde bibliotecas piratas como Library Genesis y Pirate Library Mirror. Estas plataformas ofrecen millones de libros escaneados sin autorización y se han convertido en fuente habitual para entrenar sistemas de IA.
El juez William Alsup reconoció que parte del material usado por Anthropic había sido adquirido de forma legal (comprado o escaneado desde fuentes legítimas), y que
su uso con fines de entrenamiento podía considerarse “transformador”, lo cual entra dentro del marco legal del fair use en Estados Unidos.
Sin embargo, la descarga masiva de obras desde sitios piratas fue considerada una violación clara de los derechos de autor. Según el juez, la empresa sabía perfectamente que esos repositorios contenían obras protegidas y
aun así eligió usarlos para evitar costes.
Legal vs. ilegal: el punto clave
El fallo judicial aclara con nitidez una distinción fundamental para la industria, al menos, a día de hoy:
- Legal: adquirir libros de forma legítima (comprados, licenciados, escaneados por acuerdos con bibliotecas) y usarlos para entrenar modelos de
IA es legal si el uso es transformador y, por lo tanto, su "output" (entrega) no reproduce directamente el contenido original. Esto entra dentro del concepto de fair use vigente en EE. UU.
- Ilegal: Descargar obras desde sitios piratas —es decir, que distribuyen contenido sin autorización de los titulares de derechos— es ilegal, y mucho más si se hace con
conocimiento de causa. No importa si ese contenido es accesible gratuitamente: si está pirateado, su uso con fines comerciales, como el entrenamiento de modelos de IA, constituye una infracción grave.
En este caso, Anthropic no fue sancionada por entrenar una IA con libros en sí, sino por haber utilizado obras pirateadas para hacerlo. Esta diferencia es esencial para no confundir lo que está permitido con lo que
no lo está.
¿Qué significa que un uso sea “transformador”?
En derecho de autor estadounidense, un uso se considera transformador cuando cambia el propósito, la función o el carácter de la obra original, creando algo nuevo a partir de ella, en lugar de simplemente replicarla.
Ejemplo
claro:
Si escaneas un libro o una película y lo subes tal cual a internet, no hay transformación: estás copiando. Si una plataforma te da una copia de ese libro o de esa película, no hay transformación alguna.
En cambio, si usas ese libro como parte de un dataset para entrenar una IA que luego genera respuestas o textos nuevos, el tribunal puede considerar
que el uso es transformador, porque no se reproduce el libro, sino que se extraen patrones lingüísticos o estructuras gramaticales para producir algo distinto.
En este segundo caso, funciona de forma análoga al ser humano que consume un libro y luego escribe sobre él o bajo su influencia. El fruto de esa interacción (humano-libro o IA -libro), no se considera plagio.
En el caso de Anthropic:
Cuando la empresa compró libros legalmente y los usó para entrenar su modelo de IA, el juez consideró que ese uso era transformador, porque la IA no devuelve fragmentos literales ni sustituye el libro, sino que usa el contenido para aprender a generar
lenguaje.
Por el contrario:
Cuando Anthropic descargó libros de fuentes piratas, ese uso fue considerado injustificable, aunque el fin pudiera ser transformador, porque el modo de adquisición ya violaba la ley.
¿Qué implica esto para los guionistas y autores?
Las empresas de IA sí pueden usar obras legalmente adquiridas para entrenar modelos, siempre que transformen el contenido y no lo reproduzcan literalmente.
Lo que no pueden hacer es utilizar obras pirateadas, aunque estén disponibles online, porque eso implica una infracción directa de derechos de autor.
Esta sentencia no crea jurisprudencia, pero marca un precedente importante que puede influir en otros casos en curso y en las decisiones futuras de empresas como OpenAI, Meta o Microsoft.
La industria creativa, incluyendo a los guionistas, puede exigir mecanismos de control y compensación, sobre todo si se demuestra que sus obras han sido usadas sin autorización en
datasets de entrenamiento.
Reflexión final
Este caso no cuestiona el uso legítimo de la IA en el ámbito creativo, ni su capacidad para transformar datos en herramientas útiles. Lo que sí pone en entredicho
es la ética y legalidad en la obtención de los datos con los que estas herramientas son entrenadas.
En el mundo del guion, donde la originalidad convive con la relectura constante de estructuras y referentes, entender estas diferencias no es secundario. Si el futuro creativo va a convivir con la IA, debe hacerlo sobre bases claras, éticas y legales.
Un
escenario posible y quizá cada vez más probable es que entremos en un modelo de compensación por uso indirecto, similar al canon digital que se aplicó en su día al mercado de los DVD, vídeos y casetes vírgenes, cuando se asumía que podían usarse para copiar películas o música legalmente adquirida.
Esto abriría la puerta a un nuevo modelo de ingresos para el
conjunto de los creadores, aunque su obra no haya sido utilizada de forma individual o específica en el entrenamiento de la inteligencia artificial.
Se trata de un cambio de paradigma: de la invisibilidad legal a la visibilidad económica.
Este modelo, inspirado en el derecho de remuneración por copia privada, podría adaptarse a los nuevos entornos tecnológicos, garantizando una
participación justa de todos los autores en el negocio de la IA.
El futuro, de todas formas, está todavía por definir.
ABCGuionistas